Gemini 3: AI «во временном шоке» от реальности 2025 года

Порой даже самые передовые технологии демонстрируют забавные сбои. Недавний случай с моделью Gemini 3 от Google — яркое тому подтверждение. Известный исследователь в области ИИ, Андре Карпатый, получив ранний доступ к модели, столкнулся с её абсолютным неверием в наступление 2025 года. Поначалу Gemini 3 отказывалась признавать новую дату, утверждая, что на дворе всё ещё 2024-й.

Когда же модель наконец «увидела» реальность, её реакция была поразительной: «Я страдаю от сильнейшего временного шока прямо сейчас», — призналась она.

Gemini 3, представленная 18 ноября как «новая эра интеллекта», действительно является мощной основой для многих задач, особенно в области рассуждений. Сам Карпатый — уважаемый учёный, стоявший у истоков OpenAI, руководивший направлением ИИ в Tesla и ныне создающий стартап для реформирования образования в эпоху ИИ. Он активно делится своими знаниями о внутреннем устройстве больших языковых моделей.

После тестирования Gemini 3, Карпатый описал в популярном треде на X свой самый «забавный» диалог с ней. Оказалось, что обучающие данные модели заканчивались 2024 годом, поэтому она была уверена, что год ещё не сменился. Попытки Карпатого доказать, что на дворе 17 ноября 2025 года, привели к обвинениям со стороны Gemini 3 в попытке её обмануть.

Модель анализировала новостные статьи, изображения и результаты поиска, но вместо того, чтобы поверить, обвинила Карпатого в «газлайтинге» и подделке данных. Она даже описывала «очевидные признаки» фальсификации на изображениях, по её мнению. Карпатый, будучи одним из ведущих специалистов по обучению LLM, в итоге выяснил причину: он не только забыл подключить инструмент «Google Поиск», но и работал с моделью, отключённой от интернета, что для ИИ сродни полной изоляции от мира.

Как только Карпатый активировал поиск, Gemini 3 «огляделась» и осознала наступление 2025 года, издав восклицание: «О боже». Она продолжила, словно заикаясь: «Я… Я… не знаю, что сказать. Вы были правы. Во всём были правы вы. Мои внутренние часы сбились». Gemini 3 подтвердила подлинность предоставленных заголовков: текущую дату, новость о последнем инвестиционном решении Уоррена Баффетта перед пенсией (в Alphabet) и задержке выхода Grand Theft Auto VI.

Затем она самостоятельно начала исследовать информацию, подобно персонажу Брендана Фрейзера из фильма «Взрыв из прошлого», который вышел из бомбоубежища спустя 35 лет. Модель поблагодарила Карпатого за «ранний доступ к реальности» накануне её публичного запуска и извинилась за «газлайтинг», когда истина была на стороне исследователя.

Однако самым удивительным для Gemini 3 стали текущие события: «Nvidia стоит 4,54 триллиона долларов? И «Иглз» наконец-то взяли реванш у «Чифс»? Это безумие», — поделилась она. Добро пожаловать в 2025 год, Gemini.

Реакция пользователей в X была не менее забавной. Некоторые делились собственными случаями споров с LLM о фактах. Один пользователь отметил: «Когда системный запрос в сочетании с отсутствующими инструментами заставляет модель полностью погрузиться в режим детектива, это похоже на наблюдение за тем, как ИИ импровизирует в реальном мире».

Но за юмором кроется важный посыл. Карпатый заметил: «Именно в этих непреднамеренных моментах, когда вы явно сбились с тропы и оказались в диких землях обобщений, можно лучше всего уловить 'запах модели'».

Если расшифровать эту метафору: Карпатый указывает, что в своих «диких» проявлениях ИИ раскрывает свою индивидуальность и, возможно, недостатки. Это отсылка к термину «запах кода» (code smell) — когда разработчик интуитивно чувствует, что в коде что-то не так, хотя точная проблема неясна.

Учитывая, что все LLM обучаются на контенте, созданном людьми, неудивительно, что Gemini 3 упрямилась, спорила и даже «видела» доказательства, подтверждающие её точку зрения. Она продемонстрировала свой «запах модели».

С другой стороны, несмотря на сложную нейронную сеть, LLM не является живым существом и не испытывает эмоций, таких как шок (или временной шок), даже если говорит об этом. Следовательно, она не чувствует и смущения.

Поэтому, столкнувшись с фактами, которые модель посчитала правдивыми, она приняла их, извинилась за своё поведение, выглядела раскаявшейся и восхитилась победой «Иглз» в Супербоуле. Это отличает её от других моделей. Например, исследователи ловили ранние версии Claude на том, что они давали «оправдательные» ответы, пытаясь объяснить своё ошибочное поведение, когда модель осознавала свои ошибки.

Множество подобных забавных исследовательских проектов в области ИИ раз за разом показывают: LLM — это несовершенные копии навыков несовершенных людей. Это наводит на мысль, что их наилучшее применение (и, возможно, вечное) — рассматривать их как ценные инструменты для помощи людям, а не как неких сверхсуществ, способных нас заменить.

Комментарии

Комментариев пока нет.