Нейроморфные компьютеры: ИИ учится без дорогостоящих тренировок

Возможно ли, чтобы компьютеры учились подобно человеку, минуя затратные системы искусственного интеллекта, требующие масштабных тренировок? Нейроморфные вычисления представляются многообещающим решением.

Эта передовая технология использует аппаратное обеспечение, вдохновленное структурой мозга, что позволяет выполнять задачи ИИ значительно эффективнее. Для этого требуется меньше вычислительных операций для обучения, потребляется меньше энергии по сравнению с традиционными системами. В перспективе нейроморфные компьютеры могут снизить зависимость от энергоемких дата-центров и обеспечить возможности ИИ для мобильных устройств.

Команда под руководством доктора Джозефа С. Фридмана, доцента кафедры электротехники и компьютерной инженерии в Техасском университете в Далласе, сделала значительный шаг вперед. Они создали маломасштабный прототип, способный обучаться распознаванию закономерностей и делать предсказания, затрачивая на обучение меньше вычислений, чем традиционные ИИ. Следующая задача — масштабирование этой концепции.

«Наша работа открывает новый потенциальный путь для создания компьютеров, вдохновленных работой мозга, которые могут обучаться автономно», — отметил Фридман. «Поскольку нейроморфные компьютеры не нуждаются в массивных вычислительных мощностях для обучения, они могут питать интеллектуальные устройства без огромных энергетических затрат».

Исследователи, включая специалистов из Everspin Technologies Inc. и Texas Instruments, представили свой прототип в исследовании, опубликованном в журнале Communications Engineering.

Традиционные компьютеры и графические процессоры разделяют хранение данных и их обработку. Это снижает эффективность ИИ-инференции по сравнению с человеческим мозгом. Кроме того, такие системы требуют больших объемов размеченных данных и колоссального числа сложных тренировочных вычислений, стоимость которых может достигать сотен миллионов долларов.

Нейроморфные компьютеры объединяют хранение информации и обработку, что обеспечивает более высокую эффективность ИИ-операций и снижает затраты. Их аппаратная архитектура имитирует мозг, где сети нейронов и синапсов отвечают за обработку и хранение информации соответственно. Синапсы, формируя связи между нейронами, укрепляются или ослабляются в зависимости от активности, что позволяет мозгу непрерывно адаптироваться в процессе обучения.

Подход Фридмана основан на принципе, предложенном нейропсихологом Дональдом Хеббом, — «нейроны, которые активируются вместе, связываются вместе».

«Принцип, который мы используем для самостоятельного обучения компьютера, заключается в том, что если один искусственный нейрон вызывает активацию другого, синапс, соединяющий их, становится более проводящим», — пояснил Фридман.

Ключевым инновационным элементом разработки Фридмана является использование магнитных туннельных переходов (MTJ) — наноустройств, состоящих из двух слоев магнитного материала, разделенных изолятором. Электроны могут проходить через этот барьер легче, когда намагниченность слоев совпадает, и труднее, когда она противоположна.

В нейроморфных системах MTJ могут быть объединены в сети для имитации того, как мозг обрабатывает и усваивает информацию. По мере синхронной передачи сигналов через MTJ их связи изменяются, укрепляя определенные пути — подобно тому, как синаптические связи в мозге усиливаются при обучении. Двоичное переключение MTJ делает их надежными для хранения информации, решая проблему, которая долгое время мешала альтернативным нейроморфным подходам.

Комментарии

Комментариев пока нет.

Информация

Опубликовано: 29 октября 2025
Категория:
Просмотров: 8