ИИ в юриспруденции: риски и обучение
Искусственный интеллект, способный генерировать уникальный контент на основе больших массивов данных, рассматривается как революционный инструмент для юристов. От составления договоров до обобщения судебной практики — генеративные ИИ-инструменты, такие как ChatGPT и Lexis+ AI, обещают ускорение и повышение эффективности.
Однако английские суды сталкиваются с темной стороной генеративного ИИ: в судебные документы попадают сфабрикованные дела, вымышленные цитаты и вводящие в заблуждение ссылки.
Как специалист по взаимодействию технологий и права, я утверждаю, что юристов необходимо обучать правильному использованию генеративного ИИ. Это позволит им избежать санкций за нарушение правил и предотвратить развитие правовой системы, основанной на сфабрикованной судебной практике.
6 июня 2025 года Высокий суд вынес знаковое решение по двум делам: Frederick Ayinde против The London Borough of Haringey и Hamad Al-Haroun против Qatar National Bank QPSC и QNB Capital LLC. Суд вынес выговор стажеру-барристеру и солиситору за представление в суд вымышленных и недостоверных судебных дел. Судьи четко заявили: "бесплатно доступные генеративные инструменты искусственного интеллекта... не способны проводить надежные юридические исследования".
Таким образом, использование непроверенных результатов работы ИИ больше не может быть оправдано как ошибка или недосмотр. Юристы, как начинающие, так и опытные, несут полную ответственность за то, что они представляют суду.
'Галлюцинации' в ИИ и их последствия
ИИ-'галлюцинации' — уверенное создание несуществующей или неверно приписанной информации — хорошо задокументированы. Юридические случаи не являются исключением. Недавние исследования показали, что уровень 'галлюцинаций' при ответе на конкретные юридические запросы колеблется от 58% до 88%, часто затрагивая именно те вопросы, которые требуют от юристов решения.
Эти ошибки теперь вышли за пределы экрана и проникли в реальные судебные процессы. В деле Ayinde стажер-барристер процитировал дело, которого вообще не существовало. Ошибочный пример был неверно приписан подлинному номеру дела, относящегося к совершенно другому разбирательству.
В деле Al-Haroun солиситор перечислил 45 дел, предоставленных его клиентом. Из них 18 были вымышленными, а многие другие — нерелевантными. Судебный помощник в решении суда отметил: "Подавляющее большинство источников выдуманы или неверно истолкованы".
Эти инциденты демонстрируют профессию, столкнувшуюся с идеальным штормом: перегруженные практики, все более мощные, но ненадежные инструменты ИИ, и суды, больше не готовые рассматривать ошибки как случайности. Для молодого юридического сообщества последствия суровы.
Многие экспериментируют с ИИ из необходимости или любопытства. Однако без обучения распознаванию 'галлюцинаций' молодые юристы рискуют нанести ущерб своей репутации еще до того, как их карьеры начнут полноценно развиваться.
Высокий суд занял дисциплинарный подход, возложив ответственность непосредственно на отдельных лиц и их руководителей. Это порождает насущный вопрос: не наказывают ли начинающих юристов слишком строго за то, что, по крайней мере частично, является пробелом в обучении и надзоре?
Образование как профилактика
Юридические школы давно обучают методам исследования, этике и правилам цитирования. Новым является необходимость рассматривать эти же навыки в контексте генеративного ИИ.
В то время как многие юридические школы и университеты либо изучают ИИ в рамках своих модулей, либо создают новые модули, посвященные ИИ, наблюдается более широкий сдвиг в сторону рассмотрения того, как ИИ меняет юридический сектор в целом.
Студенты должны научиться понимать, почему ИИ производит 'галлюцинации', как ответственно составлять запросы (промпты), как проверять результаты по авторитетным базам данных и когда использование таких инструментов может быть неуместным.
Настояние Высокого суда на ответственности оправдано. Целостность правосудия зависит от точных цитат и честной защиты. Но решение не может ограничиваться только санкциями.
Если ИИ является частью юридической практики, то обучение и грамотность в области ИИ должны стать частью юридического образования. Регулирующие органы, профессиональные ассоциации и университеты несут коллективную обязанность гарантировать, что начинающие юристы не будут учиться на ошибках или в самой неблагоприятной среде — зале суда.
Аналогичные проблемы возникали и у непрофессиональных юристов. В гражданском деле в Манчестере истец, выступавший без адвоката, признался, что использовал ChatGPT для генерации юридических источников в поддержку своего аргумента. Человек вернулся в суд с четырьмя цитатами: одна была полностью сфабрикована, а три имели подлинные названия дел, но с вымышленными цитатами, приписанными им.
Хотя представления выглядели законными, более тщательная проверка оппонентом выявила, что параграфы не существуют. Судья признал, что ИИ-инструмент непреднамеренно ввел истца в заблуждение, и не наложил никаких санкций. Это демонстрирует как риски непроверенного контента, сгенерированного ИИ, попадающего в судебные процессы, так и трудности для неоRepresented сторон в навигации по судебным процедурам.
Послание из дел Ayinde и Al-Haroun простое, но глубокое: использование GenAI не уменьшает профессиональный долг юриста, а повышает его. Для начинающих юристов этот долг будет актуален с первого дня. Задача для юридических преподавателей — подготовить студентов к этой реальности, встраивая проверку ИИ, прозрачность и этическое рассуждение в учебную программу.
Комментарии
Комментариев пока нет.