Исследование показывает, что мощь ИИ зависит от специализации узлов

Одной из наиболее влиятельных научных и философских концепций является принцип «Больше значит иное», сформулированный в 1972 году лауреатом Нобелевской премии Филипом У. Андерсоном. Он подчеркивал ограничения редукционистского подхода: возникающие свойства системы невозможно вывести из фундаментальных законов, управляющих её элементарными частицами.

n

Это идея предполагает иерархическую структуру науки, где свойства небольших систем не всегда позволяют предсказать поведение более крупных аналогичных систем. Подход охватывает физику, химию, молекулярную биологию, клеточную биологию и социальные науки.

n

Изначально концепция возникла в эпоху, когда машинное обучение на основе сложных архитектур и больших наборов данных ещё не существовало. Только за последние два десятилетия ИИ и машинное обучение стали частью повседневной жизни, выполняя задачи, типичные для человеческого интеллекта.

n

Профессор Идо Кантер из кафедры физики и многодисциплинарного центра исследований мозга Гонда (Гольдшмид) Бар-Иланского университета изучил связь между принципом «Больше значит иное» и современными моделями ИИ. В своей работе, опубликованной в журнале Physica A: Statistical Mechanics and its Applications, он демонстрирует, что с точки зрения информации физика ведёт к «Больше то же самое», тогда как ИИ воплощает «Больше значит иное» благодаря обучению и сотрудничеству узлов архитектуры.

n

В ходе обучения внутренние элементы ИИ‑моделей — узлы — начинают специализироваться. Вместо выполнения одинаковых функций разные узлы приобретают уникальные роли: распознавание определённых паттернов, лингвистических особенностей и т.д. Такое разделение труда повышает эффективность системы, указывая на то, что сила ИИ заключается не только в её масштабе, но и в скоординированном взаимодействии специализированных компонентов.

n

Как отмечает профессор Кантер, даже один узел языковой модели может содержать значимую информацию о глобальной задаче модели. Совместная работа нескольких узлов приводит к возникновению свойств, превышающих сумму их отдельных вкладов — проявлению emergent интеллекта, то есть принципу «Больше значит иное».

n

Исследование также выделяет ключевое различие между ИИ и многими физическими системами. В физике отдельные компоненты часто несут схожую информацию о состоянии системы, поэтому добавление данных о большем числе элементов не обязательно увеличивает общий объём информации — это явление можно охарактеризовать как «Больше то же самое».

n

Выводы могут иметь значение для нейронауки. Основываясь на экспериментальных данных о дендритном обучении как альтернативе синаптической пластичности, Кантер предполагает, что мозг может опираться на нейроны, более специализированные и насыщенные информацией, чем считалось ранее.

n

Таким образом, интеллект в ИИ возникает не просто за счёт увеличения размерности, а благодаря способности отдельных элементов специализироваться, обмениваться информацией и действовать согласованно. Понимание будущего искусственного интеллекта может начинаться с фундаментального вопроса, заданного ещё в физике.

Комментарии

Комментариев пока нет.