Нейросети, квантовые компьютеры, суперкомпьютеры

Nvidia и Amazon создадут суперкомпьютер Ceiba с производительностью 65 ExaFLOPS. Но это производительность не FP32 или FP64
Речь о производительности ИИ

Компании Nvidia и Amazon Web Services (AWS) объявили о расширении своего стратегического сотрудничества, в рамках которого в том числе будет построен самый быстрый суперкомпьютер искусственного интеллекта Ceiba.

NVIDIA+DGX+Cloud+image_large.jpg


Ceiba получит 16 384 системы GH200 Superchips и будет иметь производительность в невероятные 65 ExaFLOPS. Правда, тут сразу стоит сказать, что это производительность именно в задачах ИИ, то есть речь не о вычислениях с двойной или одинарной точностью. О классических показателях данных нет.

Но это не всё, в чём будет заключаться расширение сотрудничества. Amazon также будет использовать новейшие адаптеры Nvidia для своей службы Amazon EC2. Речь об ускорителях GH200, H200, L40S и L4. В целом в пресс-релизе сказано, что компании объединят лучшее из своих технологий — от новейших многоузловых систем Nvidia с графическими процессорами, процессорами и программным обеспечением искусственного интеллекта нового поколения до расширенной виртуализации и безопасности системы AWS Nitro, межсоединения Elastic Fabric Adaptor (EFA) и UltraCluster.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
ЦРУ обеспокоено возможностью Китая получить доступ к самому мощному суперкомпьютеру для обучения ИИ, основанному на чипах размером с iPad

Речь о системе Condor Galaxy


Из-за всё новых и новых санкций США Китай не может получать новейшие ускорители для ИИ и многое другое, что также связано с искусственным интеллектом. Однако теперь у правительства США появились опасения, что Китай всё же получит доступ к подобным технологиям, причём не просто так, сразу к самому производительному суперкомпьютеру для обучения ИИ.

Cerebras-CS-2-AI-System-With-WSE-2-Chip-Official_large_large.jpg

Фото: Cerebras

Речь о системе Condor Galaxy, которая сама по себе уникальна и крайне необычна, но об этом мы уже писали. Систему эту строит компания G42 из ОАЭ. Как сообщается, компания, очевидно, контролируется шейхом Тахнуном бен Заидом и имеет связи с китайскими фирмами, которые США считают угрозой безопасности. В том числе с Huawei. Согласно данным New York Times, ЦРУ опасается, что сотрудничество G42 с китайскими компаниями может привести к тому, что что G42 станет каналом передачи секретных американских технологий и генетических данных. Кроме того, Китай получит доступ к невероятно мощному суперкомпьютеру.

Суть в том, что Condor Galaxy будет состоять из нескольких одинаковых установок (CG1, CG-2 и так далее), размещённых в разных странах. Всего их будет девять, и лишь некоторые разместятся в США. ЦРУ выражает обеспокоенность о четырёх, но не уточняет, где будут размещены эти четыре системы.

Напомним, Condor Galaxy — это уникальное решение. Каждый из кластеров CG состоит из 64 модулей, причём каждый модуль фактически содержит лишь один чип. Речь о микросхеме Cerebras Wafer Scale Engine 2 (WSE-2) размером с iPad, которая содержит 850 000 ядер. В итоге только одна система CG имеет производительность в 4 ExaFLOPS (FP16), а суммарная производительность всего суперкомпьютера составит невероятные 36 ExaFLOPS. Это очень и очень много, правда, буквально сегодня Nvidia и Amazon объявили о постройке суперкомпьютера Ceiba с производительностью в этом же режиме уже в 65 ExaFLOPS.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Dell построит ИИ-кластер из 10 тыс. NVIDIA H100 для компании Imbue

Независимая исследовательская ИИ-компания Imbue и Dell Technologies объявили о заключении соглашения по созданию нового высокопроизводительного вычислительного кластера на основе серверов PowerEdge для обучения базовых моделей. Проект оценивается в $150 млн.

Imbue разрабатывает собственные базовые ИИ-модели, оптимизированные специально для рассуждений: они способны при необходимости запрашивать дополнительную информацию, анализировать и критиковать свои собственные результаты, а также разбивать сложную задачу на несколько более простых для повышения эффективности выполнения.

dell.jpg

Источник изображения: Dell

Imbue уже использует кластер на базе серверов Dell PowerEdge XE9680 с ускорителями NVIDIA H100. Новый проект предполагает развёртывание платформы, насчитывающей почти 10 тыс. чипов H100. Отмечается, что Imbue и Dell разработали систему, включающую в себя сравнительно небольшие кластеры, которые позволяют проводить эксперименты с ИИ-моделями на новых архитектурах. Такие узлы могут быть объединены в крупный кластер для эффективного обучения крупномасштабных базовых моделей.

Основная цель Imbue заключается в создании специализированных ИИ-агентов, не требующих постоянного контроля со стороны пользователей. Они смогут выполнять самые разные задачи, включая написание программного кода, анализ сложных данных и пр. Ранее в текущем году Imbue привлекла на развитие $200 млн. Деньги поступили в том числе от NVIDIA.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
IBM поможет NASA в создании ИИ-основы для погодных и климатических приложений

Национальное управление по аэронавтике и исследованию космического пространства (NASA) и компания IBM объединились, чтобы создать базовую модель искусственного интеллекта для погодных и климатических приложений. Объединение научных знаний с технологиями искусственного интеллекта, как ожидается, позволит создать модель, которая предложит «значительные преимущества по сравнению с существующими технологиями».

1226.jpg

Источник изображения: TheDigitalArtist / Pixabay

Современные ИИ-модели, такие как GraphCast и Fourcastnet, генерируют прогнозы быстрее, чем традиционные метеорологические модели. Однако IBM отмечает, что всё это эмуляторы искусственного интеллекта, а не базовые модели, которые лежат в основе генеративных алгоритмов. Эмуляторы искусственного интеллекта способны формировать прогнозы погоды на основе используемых для обучения данных, но они лишены других приложений и возможностей, которыми можно наделить базовую модель.

NASA и IBM планируют создать ИИ-модель, которая будет иметь расширенную доступность по сравнению с уже используемыми технологиями, а также сумеет обрабатывать больше типов данных. Ещё одной ключевой целью является повышение точности прогнозирования. Ожидается, что алгоритм будет успешно справляться с прогнозированием метеорологических явлений, а также определением условий, способствующих формированию различных явлений, от турбулентности самолёта до лесных пожаров.

Ранее в этом году NASA и IBM выпустили другую ИИ-модель, которая использует данные со спутников аэрокосмического ведомства для геопространственной разведки и является крупнейшей геопространственной моделью на базе ИИ с открытым исходным кодом. С момента запуска эта модель использовалась для отслеживания и визуализации деятельности по посадке и выращиванию деревьев в Кении. Она также задействована для анализа климатических условий на территории ОАЭ.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
В МТУСИ разработали модель нейросети для распознавания мошеннических банковских транзакций

В университете сообщили, что модель уже на этой стадии готовности может применяться в качестве первой линии защиты от интернет-мошенников
МОСКВА, 2 декабря. /ТАСС/. Модель нейросети для распознавания мошеннических банковских транзакций разработали ученые Московского технического университета связи и информатики (МТУСИ). Как рассказали ТАСС в университете, модель уже на этой стадии готовности может применяться в качестве первой линии защиты от интернет-мошенников.

Задача разработанной в МТУСИ модели сверхточной нейронной сети - распознавание мошеннических транзакций. Для реализации нейросети был использован набор данных веб-сайта Kaggle, состоящих из транзакций, осуществленных с помощью кредитных карт. По словам руководителя пресс-службы МТУСИ Алины Хакимзяновой, благодаря анализу и обработке данных и обучению в течение 40 эпох (эпоха - однократное прохождение всех обучающих примеров через нейронную сеть) удалось добиться очень хороших результатов: модель нейросети успешно обобщается на неизученные данные и имеет очень высокую точность в распознавании мошеннических действий.

Особенность новой модели в том, что разработка проводилась на базе уже примененной нейросети, что способствовало более фундаментальному исследованию в работе с нейронной моделью для распознавания мошеннических транзакций. Полученная модель способна учитывать большое количество определенных закономерностей, по которым можно распознать противоправные действия, и имеет достаточно хорошие показатели по сравнению с аналогами, отмечают авторы разработки. По их словам, при обучении нейросети дополнительно учитывались и такие данные, как тип использованной банковской карты, характеристики устройства, с помощью которого была совершена банковская транзакция. Еще одна особенность новой модели в том, что она учитывает определенные закономерности, по которым можно распознать противоправные действия. Например, при фильтрации транзакций анализируются временные метки и определяется, как давно человек открыл счет в банке и в какой организации он обслуживается.

"Работа над исследованием продолжается. В дальнейшем будет проведено более фундаментальное обучение и тестирование работы нейросети. Хотя существенно усложняет работу то, что банковская информация является конфиденциальной, данные о проведенных транзакциях получить практически невозможно. Модель сверточной нейронной сети может быть применена в качестве первой линии защиты от интернет-мошенничества", - рассказала доцент кафедры "Интеллектуальные системы в управлении и автоматизации" МТУСИ к.п.н. Ирина Яблочникова.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
HPE и NVIDIA представили совместное решение для корпоративного ИИ, а HPE анонсировала LLM-платформу Project Ethan

Hewlett Packard Enterprise (HPE) объявила о расширении стратегического сотрудничества с NVIDIA с целью создания инструментов для генеративного ИИ. Совместно разработанное, предварительно настроенное решение позволит предприятиям любого размера использовать собственные данные для быстрой настройки посредством RAG базовых ИИ-моделей, которые были обучены на больших наборах данных и могут быть адаптированы для выполнения различных задач от периферии до облака.

HPE и NVIDIA также предоставляют в рамках сотрудничества полнофункциональные готовые решения для обработки приложений ИИ. Эти решения объединяют ПО фирменные среды разработки HPE для машинного обучения, HPE Ezmeral, платформы HPE ProLiant и HPE Cray, а также программный пакет NVIDIA AI Enterprise, включая NVIDIA NeMo. Аппаратная составляющая включает 16 серверов HPE ProLiant DL380a, несущих в общей сложности 64 ускорителя NVIDIA L40S и использующих DPU NVIDIA BlueField-3 и NVIDIA Spectrum-X.

image.jpeg

Источник изображений: HPE

Программно-аппаратный комплекс, например, позволяет дообучить на собственных данных модель Llama 2 с 70 млрд параметров. Решение включает ПО HPE Machine Learning Development Environment с новыми возможностями в области генеративного ИИ для быстрого прототипирования и тестирования моделей, а также ПО HPE Ezmeral с поддержкой ускорителей, которое упростит развёртывания и ускорит подготовку данных для ИИ-нагрузок в гибридном облаке. Партнёры HPE смогут заказать решение уже в I квартале 2024 года.

Заодно HPE анонсировала платформу Project Ethan, ориентированную на оркестрацию ресурсов в локальных или публичных облаках для работы с большими языковыми моделями (LLM). Кроме того, компания сообщила, как планирует более полно адаптировать платформу Greenlake для работы с ИИ. Например, OpsRamp, ИИ-решение для управления ИТ-операциями (IT Operations Management, ITOM), приобретённое компанией в марте этого года, уже доступно по подписке в Greenlake.

paths.jpg


В OpsRamp добавлен HPE Sustainability Insight Center — инструмент для отслеживания и мониторинга энергопотребления ИТ-ресурсов, которыми управляет организация. Это было сделано для удобства клиентов, которые обучают и используют модели ИИ, и хотят контролировать потребление энергии. Обучение и инференс LLM, по словам компании, требует больших затрат электроэнергии — 1200 МВт·ч и 250 МВт·ч в день соответственно. Инструмент позволит управлять энергопотреблением с учётом возможностей компании.

Также HPE представила пакет ПО Greenlake Hybrid Operations, объединяющий Ezmeral, OpsRamp с Sustainability Insight Center и набор решений для резервного копирования и восстановления HPE Data Protection Suite. Он позволит клиентам управлять, контролировать и защищать свои данные и рабочие нагрузки от периферии до облака.

hpe_ai.jpg


В ближайшее время будет представлено и решение HPE Private Cloud Solutions для ИИ, основанное на аппаратных решениях HPE, обновлённой платформе HPE Greenlake for File Storage (эффективная ёмкость до 250 Пбайт, до 700 Гбайт/с на чтение и до 200 Гбайт/с на запись), OpsRamp и Zerto Cyber Resilience Vault. Последнее решение представляет собой автономную платформу для данных, которая помогает восстановить работу после атаки программы-вымогателя, если данные зашифрованы или удалены.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
IBM представила свой мощнейший квантовый процессор Heron и первый модульный квантовый компьютер

На ежегодной конференции IBM по квантовым вычислениям Quantum Summit 2023 корпорация представила новейший 133-кубитный квантовый процессор Heron и первый модульный квантовый компьютер IBM Quantum System Two на его базе. IBM также анонсировала процессор Condor с 1121 кубитом, который имеет на 50 % большую плотность кубитов. По словам главного квантового архитектора IBM Маттиаса Стефана (Mattias Stephan), усилия по созданию этого устройства «открыли путь к масштабированию» квантовых вычислений.

ibm-quantum.jpg

Источник изображений: IBM

Процессор Condor является частью долгосрочных исследований IBM по разработке крупномасштабных квантовых вычислительных систем. Хотя он располагает огромным количеством кубитов, производительность его сравнима с 433-кубитным устройством Osprey, дебютировавшим в 2022 году. Это связано с тем, что простое увеличение количества кубитов без изменения архитектуры не делает процессор быстрее или мощнее. По словам Стефана, опыт, полученный при разработке Condor и предыдущего 127-кубитного квантового процессора Eagle, проложил путь к прорыву в перестраиваемой архитектуре процессора Heron.

IBM_Quantum_1121_Qubit_CONDOR_01-scaled.jpg


«Heron — наш самый производительный квантовый процессор на сегодняшний день, он обеспечивает пятикратное снижение ошибок по сравнению с нашим флагманским устройством Eagle, — сказал Стефан. — Это было путешествие, которое готовилось четыре года. Он был разработан с учётом модульности и масштабирования».

Ранее в этом году компания IBM продемонстрировала, что квантовые процессоры могут служить практическими платформами для научных исследований и решения проблем химии, физики и материаловедения, выходящих за рамки классического моделирования квантовой механики методом грубой силы. После этой демонстрации исследователи и учёные из многочисленных организаций, включая Министерство энергетики США, Токийский университет, Q-CTRL и Кёльнский университет, использовали квантовые вычисления для решения более крупных и сложных реальных проблем, таких как открытие лекарств и разработка новых материалов.

«Мы твёрдо вступили в эпоху, когда квантовые компьютеры используются в качестве инструмента для исследования новых рубежей науки, — сказал Дарио Хил, старший вице-президент и директор по исследованиям IBM. — Поскольку мы продолжаем совершенствовать возможности масштабирования квантовых систем и приносить пользу посредством модульной архитектуры, мы будем и дальше повышать качество стека квантовых технологий промышленного масштаба».

IBM Quantum System Two размещена на объекте в Йорктаун-Хайтс, Нью-Йорк. Эта система на базе трёх квантовых процессоров Heron станет основой архитектуры квантовых вычислений IBM следующего поколения. Она сочетает в себе масштабируемую криогенную инфраструктуру и классические серверы с модульной электроникой управления кубитами. В результате систему можно будет расширять в соответствии с будущими потребностями, и «апгрейдить» при появлении следующего поколения квантовых процессоров.

ibm-quantum-system-2.jpg


Стремясь облегчить разработчикам и инженерам работу с квантовыми вычислениями, IBM анонсировала выход в феврале 2024 года версии 1.0 набора программных инструментов с открытым исходным кодом Qiskit, который позволяет создавать квантовые программы и запускать их на IBM Quantum Platform или симуляторе. В дополнение к Qiskit, IBM анонсировала Qiskit Patterns — способ, позволяющий квантовым разработчикам легко создавать код и оптимизировать квантовые схемы с помощью Qiskit Runtime, а затем обрабатывать результаты.

«С помощью Qiskit Patterns и Quantum Serverless вы можете создавать, развёртывать, запускать квантовые программы и в будущем предоставлять доступ к ним другим пользователям», — заявил Джей Гамбетта (Jay Gambetta), вице-президент IBM Quantum. На презентации он продемонстрировал использование генеративного ИИ на базе Watson X для создания квантовых схем при помощи базовой модели Granite, обученной на данных Qiskit. «Мы действительно видим всю мощь генеративного ИИ для облегчения труда разработчиков», — заключил Гамбетта.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Новость декабря и следующих 100 лет развития компьютерной техники

IBM раскрыла планы развития квантовых компьютеров на ближайшие 10 лет: системы на 100 000 кубитов и с коммерческой ценностью


На саммите IBM Quantum исследователи анонсировали квантовый компьютер Quantum System Two на базе трёх процессоров IBM Heron и поделились дальнейшими планами по масштабированию квантовых систем с уменьшением ошибок, а также разработке программного обеспечения для них. IBM объявила о своём намерении преодолеть порог в 100 000 кубитов. В случае реализации этих планов, IBM может создать первую в мире платформу для универсальных квантовых вычислений.

ibm-tech-quantum.jpg

Источник изображений: IBM

Квантовые вычисления используют свойства субатомных частиц, которые позволяют им находиться в разных состояниях одновременно. Благодаря этому квантовые машины могут одновременно выполнять большое количество вычислений и потенциально решать проблемы, выходящие за рамки возможностей традиционных компьютеров. Но кубиты, на которых основаны системы, нестабильны и сохраняют свои квантовые состояния лишь в течение очень коротких периодов времени, внося ошибки или «шум» в вычисления.

Использование возможностей квантовой механики — непростая задача. Квантовые системы требуют чрезвычайно низких температур, хрупки по своей природе и подвержены декогеренции. Точное манипулирование кубитами и измерение их состояний является серьёзной проблемой, а для успешного масштабирования квантовой системы частоту ошибок необходимо снизить с одной на тысячу до одной на миллион.

IBM заявила, что новые научные достижения её систем ознаменовали конец первой, экспериментальной фазы разработки, длившейся последние семь лет. Эта фаза ознаменовалась соединением достаточного количества кубитов вместе для проведения вычислений, разработкой способов управления кубитами для практического измерения их состояний и созданием первых квантовых алгоритмов.

По мнению IBM, сейчас человечество вступило во вторую фазу. Исследования сосредоточатся на характеристиках квантового оборудования, уменьшении и коррекции ошибок, а также проверке работоспособности приложений. На сегодняшний день IBM опубликовала около 2595 исследовательских работ со своими идеями и достижениями в этой области. К концу 2024 года компания планирует создать восемь центров квантовых вычислений в США, Канаде, Японии и Германии, чтобы обеспечить широкий доступ к Quantum System Two для исследователей.

ibm-3-eras-quantum-computing.jpg


Третья фаза должна расширить возможности масштабирования и обеспечить исправление ошибок. В IBM уверены, что достижение требуемого уровня коррекции ошибок ближе, чем представлялось ранее. Эта уверенность основана на новых исследованиях, в частности, на новой технологии межсоединений, обеспечивающей беспрецедентное масштабирование квантовых систем с тысячами кубитов.

Новая дорожная карта IBM Quantum подробно описывает программное обеспечение и аппаратные технологии, необходимые для обеспечения квантового преимущества, используя которые квантовая система сможет решать задачи, не доступные для традиционных компьютеров. Нерешённые проблемы в области искусственного интеллекта, химии, финансовых услуг, наук о жизни, физики и фундаментальных исследований могут, наконец, стать решаемыми, что сделает результаты близкими для человечества. Зелёные галочки на дорожной карте отмечают уже достигнутые этапы.

ibm-quantum-roadmap.jpg

Следующим крупным достижением в области квантовых вычислений должен стать в 2025 году процессор Kookaburra, который выступит в роли «базового строительного блока», из которых будут строиться масштабируемые системы с коррекцией ошибок в режиме реального времени. В IBM заявили, что исследователи также пытаются использовать квантовые системы для поиска корреляций в больших объёмах данных и решения так называемых проблем оптимизации, которые могут помочь улучшить бизнес-процессы.

Текущая дорожная карта IBM формирует представление одного из ведущих разработчиков квантовых вычислений о дальнейшем развитии этой сферы на ближайшие десять лет. Ожидания того, что квантовые системы к настоящему времени будут близки к коммерческому использованию, в последние годы вызвали волну финансирования этой технологии. Но признаки того, что бизнес-приложения отстают от ожиданий, привели к предупреждениям о возможной «квантовой зиме» ослабления доверия инвесторов и финансовой поддержки.

ibm-quantum-path.jpg


Исследователи IBM убеждены, что квантовые вычисления начинают демонстрировать свою востребованность в качестве важнейшего инструмента научных исследований. «Впервые у нас есть достаточно большие и мощные системы, чтобы с их помощью можно было выполнять полезную техническую и научную работу» — заявил руководитель отдела исследований IBM Quantum Дарио Хил (Dario Gil). Он также отметил, что «видит очень здоровую промышленную базу, которая инвестирует в технологии», а компании, использующие квантовые системы IBM в рамках своей научно-исследовательской деятельности, продолжают инвестировать «циклически».

«Пройдёт некоторое время, прежде чем мы перейдём от научной ценности к, скажем так, коммерческой ценности, — уверен Джей Гамбетта (Jay Gambetta), вице-президент IBM по квантовым технологиям. — Но, по моему мнению, разница между исследованиями и коммерциализацией становится все меньше».

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Последнее редактирование:
Meta✴ и IBM объединили силы для создания открытого Альянса ИИ

Meta✴ и IBM присоединились к более чем 40 компаниям и организациям для создания отраслевой группы, ориентированной на разработку ИИ на основе открытого исходного кода. Эта инициатива, получившая название AI Alliance, направлена на обмен технологиями и уменьшение рисков в этой динамично развивающейся отрасли.

meta-i-ibm-obedinili-sili-dlya-sozdaniya-otkritogo-alyansa-ii-main.jpg

Источник изображения: geralt / Pixabay

Альянс ИИ сфокусирован на ответственном развитии технологий ИИ, что подразумевает разработку инструментов их защиты и безопасности. Согласно заявлению, группа также стремится увеличить количество открытых ИИ-моделей, контрастируя с проприетарными ИИ-системами, которые предпочитают некоторые компании. В рамках инициативы планируется разработка нового оборудования, сотрудничество с академическими кругами и исследовательскими организациями.

Приверженцы технологии ИИ с открытым исходным кодом считают этот подход более эффективным для разработки сложных систем. В последние месяцы Meta✴ представила открытые версии своих больших языковых моделей, которые лежат в основе ИИ-чат-ботов. «Мы считаем, что разработка ИИ должна быть открытой — так большее количество людей сможет получить доступ к преимуществам, создавать инновационные продукты и работать над безопасностью», — заявил Ник Клегг (Nick Clegg), президент Meta✴ по международным вопросам.

Помимо Meta✴ и IBM в числе участников Альянса ИИ значатся такие технологические компании, как Oracle, AMD, Intel и Stability AI, а также академические и исследовательские учреждения, такие как Университет Нотр-Дам (UND) и Массачусетский открытый облачный Альянс (MOC Alliance). Предполагается создание управляющего совета и технического надзорного комитета для координации деятельности и разработки стандартов.

Недавние события в компании OpenAI, повлёкшие увольнение и последующее восстановление в должности генерального директора Сэма Альтмана (Sam Altman), усилили споры о необходимости прозрачности в разработке мощных ИИ-технологий. Тем не менее, OpenAI не упоминается среди участников новоиспечённого альянса.

Упомянутая инициатива может стать значительным шагом на пути к более открытому и безопасному будущему ИИ, способствуя балансу между инновациями и этическими стандартами в стремительно развивающейся сфере.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Нейросеть из мемристоров

1913715630_0:0:2000:1333_1440x900_80_0_1_08727ed13f47424de6b880660a0247d3.jpg.webp

Пластина с тестовыми кристаллами, содержащими функциональные блоки на основе мемристоров - РИА Новости, 1920, 05.12.2023
© Фото : пресс-служба ННГУ/Андрей Скворцов

Метод управления пачечной динамики нейронных сетей предложили ученые Университета Лобачевского. По их словам, им впервые в мире удалось имитировать один из ключевых информационных процессов мозга с помощью модели особых электронных устройств, мемристоров. Результаты опубликованы в журнале Mathematics.

Мемристоры – недавно разработанный тип электронной элементной базы, который, как объяснили специалисты, воспроизводит работу биологических синапсов, передающих нервный импульс между нейронами.


По словам исследователей Национального исследовательского Нижегородского государственного университета им. Н.И. Лобачевского (ННГУ), использование мемристивных устройств сегодня все более актуально в разных сферах, эти устройства дают возможность разрабатывать новые вычислительные архитектуры, используя их параллелизм, энергонезависимость и низкое энергопотребление, но сейчас почти отсутствуют работы, посвященные применению мемристоров в функциональных биологических системах.
Специалисты ННГУ предложили модель, описывающую способ управления пачечной динамики нейронной сети с помощью мемристоров. Аналогичных работ сегодня в мире нет, отметили ученые.
Исследование, по словам авторов, является важным шагом в разработке инвазивных нейроинтерфейсов и имеет большую ценность для развития методов диагностики и терапии эпилепсии.
«
"Мы показали, как с помощью мемристоров, имитирующих пластичность, зависящую от времени спайков, или STDP, можно осуществлять управление динамикой нейронной сети. В нейробиологических экспериментах было показано, что STDP является важнейший элемент в регуляции синхронной активности мозга. STDP определяет силу связей между нейронами и позволяет моделировать те процессы развития нервной системы, которые зависят от активности", – рассказал доцент кафедры нейротехнологий Института биологии и биомедицины Университета Лобачевского Сергей Стасенко.

1913715608_0:0:2000:1333_640x0_80_0_0_27709a1526b39a85238190826b3f2568.jpg.webp

Процесс измерения характеристик мемристоров в лаборатории мемристорной наноэлектроники ННГУ (работу выполняет сотрудник лаборатории - студент ННГУ Юрий Слиняков) - РИА Новости, 1920, 04.12.2023
© Фото : пресс-служба ННГУ/Андрей Скворцов

Процесс измерения характеристик мемристоров в лаборатории мемристорной наноэлектроники ННГУ (работу выполняет сотрудник лаборатории - студент ННГУ Юрий Слиняков)

По словам ученых, применение мемристоров позволит разработать целое семейство новых электронных устройств на “мозгоподобных” принципах, обладающих повышенной функциональностью относительно привычной электроники.
"Мы также показали, как мемристивное устройство интегрируется в биологически правдоподобную модель регуляции динамики нейронной сети. Наша модель не только демонстрирует эффекты сетевой регуляции, как в биологическом мозге, но и состоит из элементов, которые можно воплотить в "железе", – подчеркнул Стасенко.


В работе специалистов ННГУ использовалась математическая модель мемристоров, так как серийное производство мемристоров-микрочипов еще не начато, объяснили ученые.
"Это в первую очередь фундаментальное исследование на стыке математики, нейробиологии, физики и материаловедения, цель которого – дать новые возможности в области прикладных нейроморфных вычислительных систем", – отметил Стасенко.
В дальнейшем научный коллектив намерен разработать математические модели и устройства для нейроморфных вычислительных систем, которые позволят имитировать более сложные информационные функции мозга.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Назад
Сверху