ИИ-помощники в науке: возможности и риски

Стремительное развитие возможностей больших языковых моделей (LLM), таких как поиск в интернете, выполнение кода, анализ данных и даже генерация гипотез и планирование экспериментов, опережает критическое осмысление их роли в академических исследованиях. Этот аргумент выдвинули Рикардо Винуэса, доцент аэрокосмического инжиниринга в Университете Мичигана, и его соавторы в журнале The Innovation. Признавая, что LLM полезны для создания черновых вариантов, они отмечают, что повсеместное внедрение LLM без надлежащих мер предосторожности несет риск недобросовестных действий, таких как фабрикация данных или предвзятое проектирование экспериментов.

Опрос, проведенный журналом Nature в 2024 году, показал, что 81% исследователей используют LLM в своей работе, что подчеркивает необходимость общих правил ответственного использования. Винуэса делится своим видением передовых практик применения LLM в исследованиях, освещая как сильные стороны, так и текущие ограничения этих технологий.

Как LLM помогают в исследовательском процессе?

Системы, генерирующие текст, ускоряют создание первоначальных версий исследовательских предложений, документации по методам или отчетов о ходе работ. Они также могут автоматизировать рутинные задачи, например, создание вычислительной сетки для определенной симуляции. В последнее время ИИ-соавторы, представляющие собой мультиагентные системы, предназначенные для работы в качестве виртуальных коллабораторов, начинают помогать в выборе экспериментов, необходимых для исследования определенных явлений. Например, они оказались полезны в недавних исследованиях механизмов передачи генов и таргетной терапии фиброза печени.

«Сейчас существует очень широкий спектр мнений, и он, кажется, меняется почти каждый день. С одной стороны, некоторые люди совершенно не доверяют этим системам, а с другой — люди чрезмерно им доверяют. Чрезмерное доверие возникает, когда люди приписывают LLM человеческие свойства, предполагая, что результат подобен личному мнению. На самом деле, LLM работают иначе. Они просто предсказывают следующий токен, то есть следующую часть предложения. Самое большое преимущество лежит где-то посередине между этими крайностями. Пользователи должны понимать, что LLM — это инструменты, которые могут ускорить определенные задачи, но при этом следует признать, что есть много возможностей для улучшения», — поясняет Винуэса.

Могут ли LLM способствовать научным прорывам?

Многие великие прорывы в физике, такие как теория относительности и квантовая физика, представляли собой огромный отход от существующих способов мышления. Люди, мыслившие нестандартно, терпеливо развивали эти идеи годами, пока они не были приняты научным сообществом. LLM не обучены совершать такие скачки. Вместо этого они запрограммированы соответствовать ожиданиям человека. Если вам нужен креативный подход, который может привести к прорывам, нужно мыслить иначе. Будущие системы могут обладать такой возможностью, но пока ее нет. Хотя LLM могут быть полезны для определенных задач, мы должны продолжать поощрять творчество и новаторское мышление. В противном случае научный прогресс может застопориться.

Какие меры предосторожности помогут ученым ответственно использовать LLM?

В контексте LLM возникает интересный вопрос: следует ли сохранять взаимодействие между человеком и системой ИИ (промптинг) как часть опубликованных данных для подтверждения процесса взаимодействия? Пока это не является общепринятой практикой, но кажется разумным подходом для обеспечения прозрачности. Например, если LLM использовались для написания раздела обсуждения в статье, это помогает другим понять, насколько человеческий вклад был в стадии промптинга для достижения конечного результата. Публикация взаимодействий с LLM, использованных в исследованиях, соответствовала бы принципам FAIR (находимость, доступность, интероперабельность и повторное использование цифровых активов). Эти руководящие принципы касаются открытого доступа и воспроизводимости наборов данных для ускорения научного прогресса.

При подаче и оценке грантовых заявок мы не должны исключать человека из процесса. Хотя LLM могут ускорить процесс написания или обобщить идеи во время рецензирования, мы хотим избежать ситуации, когда LLM используются полностью для написания и оценки заявок. Это создало бы замкнутый цикл, где одна и та же информация будет передаваться туда и обратно между LLM.

Другая ключевая идея — объяснимость. Инструменты для истинной объяснимости критически важны для того, чтобы пользователи доверяли результатам и могли выявлять возможные внешние манипуляции. Если пользователи смогут понять, как LLM достигают своих результатов, они смогут согласовать модель с предпочтительным поведением, таким как способы рассуждения или глубина и широта исследования литературы.

Как следует указывать LLM в исследовательских статьях?

Многие журналы утверждают, что для получения статуса автора исследования необходимо нести ответственность за любые этические последствия, которые может иметь статья. Например, если данные были сфабрикованы, ответственность несут авторы. Поскольку система LLM не является этической сущностью, она не может быть указана в качестве соавтора исследования. Многие журналы начинают включать раздел, где авторы могут указать, какие LLM были использованы и как. Были ли LLM использованы для улучшения грамматики или для генерации полных разделов текста? Если бы я знал, что результаты полностью получены человеком, но только LLM написала раздел обсуждения, я бы предположил, что на этой стадии не было много творческой и интуитивной интерпретации результатов. Важно, чтобы читатель имел контекст.

Кто должен участвовать в создании рекомендаций по лучшим практикам?

Поскольку LLM повлияют на всех в науке, это требует глобального диалога. Необходимо значительное участие научного сообщества. В частности, исследователи машинного обучения должны быть частью процесса, поскольку они лучше всех знают, как работают разрабатываемые ими системы. Научное сообщество будет создавать предложения, статьи и рецензии, и их вклад в то, как мы должны и не должны использовать LLM, поможет обеспечить качество и инновационность новых разработок.

Каких улучшений LLM вы ожидаете?

Существует большой потенциал для улучшения LLM, если мы сможем привязать их к физическим принципам. Если вы работаете с агентной системой ИИ в долгосрочной перспективе, было бы полезно, чтобы физические законы были частью работы моделей, вместо того чтобы статистически извлекать токены из базы данных. Таким образом, причинно-следственные связи будут сохраняться при использовании выходных данных LLM для открытий. В целом, мы не должны исключать человека из процесса, поскольку креативность является ключом к новым идеям и прорывным открытиям, которые нам нужны.

Комментарии

Комментариев пока нет.