ИИ: как установить "отбойники" для безопасного развития
Искусственный интеллект (ИИ) — это захватывающая и трансформирующая сила, которая все глубже проникает в нашу жизнь, влияя на обучение, работу и принятие решений. Наряду с впечатляющими примерами инноваций, такими как разработка ИИ-ассистентов для бухгалтеров, существует и другая сторона — необходимость в надзоре, грамотности и регулировании, способных идти в ногу с развитием технологий и защищать общество.
Недавний случай в Монреале ярко иллюстрирует это противоречие: мужчину оштрафовали на 5000 долларов за предоставление в суде несуществующих цитат экспертов и юридических прецедентов. Это первое подобное решение в провинции, хотя аналогичные случаи уже фиксировались в других странах.
ИИ способен демократизировать доступ к знаниям и даже правосудию. Однако без этических рамок, должной подготовки, экспертизы и базовой грамотности инструменты, призванные расширить возможности людей, могут легко подорвать доверие и обернуться против нас.
Почему "отбойники" имеют значение
"Отбойники" — это системы, нормы и проверки, обеспечивающие безопасное, справедливое и прозрачное использование ИИ. Они позволяют инновациям развиваться, одновременно предотвращая хаос и вред.
Европейский Союз стал первым крупным регулятором, принявшим комплексную основу для управления ИИ — Закон об искусственном интеллекте ЕС, вступивший в силу в августе 2024 года. Закон классифицирует системы ИИ по уровням риска и поэтапно вводит правила, давая организациям время на адаптацию.
Закон запрещает некоторые виды использования ИИ, включая социальный скоринг и распознавание лиц в реальном времени в общественных местах, запрещенные в феврале.
Высокорисковые системы ИИ, применяемые в критически важных областях, таких как образование, найм, здравоохранение или полиция, будут подлежать строгим требованиям. С августа 2026 года такие системы должны будут соответствовать стандартам качества данных, прозрачности и человеческого надзора.
Модели ИИ общего назначения подпадут под регуляторные требования с августа 2025 года. Системы с ограниченным риском, такие как чат-боты, должны будут указывать на взаимодействие с алгоритмом.
Ключевой принцип: чем выше потенциальное воздействие на права или безопасность, тем строже обязательства. Цель — не замедлить инновации, а сделать их ответственными.
Важно, что закон также обязывает каждое государство-член ЕС создать как минимум один операционный регуляторный песочницу. Это контролируемые среды, где компании могут разрабатывать, обучать и тестировать системы ИИ под наблюдением перед полным развертыванием.
Для малых и средних предприятий, которым не хватает ресурсов для обширной инфраструктуры соответствия, "песочницы" предоставляют возможность для инноваций при одновременном наращивании потенциала.
Канада наверстывает упущенное в области ИИ
Канада еще не создала комплексную правовую базу для ИИ. Закон об искусственном интеллекте и данных был представлен в 2022 году как часть Билля C-27 — пакета, известного как Закон о реализации Цифровой хартии. Он должен был создать правовую основу для ответственного развития ИИ, но законопроект так и не был принят.
Канаде необходимо действовать оперативно. Это включает в себя укрепление управления ИИ, инвестирование в общественное и профессиональное образование, а также обеспечение участия разнообразных голосов — преподавателей, этиков, экспертов по труду и гражданского общества — в формировании законодательства об ИИ.
Поэтапный подход, аналогичный европейской системе, может обеспечить определенность и одновременно поддержать инновации. Наиболее рискованные приложения будут запрещены немедленно, в то время как другие столкнутся с постепенно ужесточающимися требованиями, давая бизнесу время на адаптацию.
Регуляторные "песочницы" могут помочь малым и средним предприятиям внедрять инновации ответственно, одновременно наращивая столь необходимый потенциал в условиях нехватки рабочей силы.
Федеральное правительство недавно запустило Целевую группу по стратегии ИИ для ускорения внедрения технологий в стране. Ожидается, что она представит рекомендации по конкурентоспособности, производительности, образованию, труду и этике в ближайшие месяцы.
Однако, как отметили несколько экспертов, целевая группа в значительной степени ориентирована на промышленные голоса, что создает риск узкого взгляда на социальные последствия ИИ.
Одних "отбойников" недостаточно
Регулирование может устанавливать границы и защищать людей от вреда, но одних "отбойников" недостаточно. Другим жизненно важным фундаментом этичного и инклюзивного общества ИИ является грамотность и развитие навыков.
Грамотность в области ИИ лежит в основе нашей способности критически оценивать инструменты и контент ИИ, и она быстро становится базовым требованием в большинстве профессий.
При этом почти половина сотрудников, использующих ИИ на работе, не прошли никакого обучения, а более трети получили лишь минимальные указания от своих работодателей. Менее 10% малых и средних предприятий предлагают формальные программы обучения ИИ.
В результате внедрение происходит неформально и часто без надзора, оставляя работников и организации уязвимыми.
Грамотность в области ИИ функционирует на трех уровнях. Базовый уровень подразумевает понимание того, что такое ИИ, как он работает и когда следует подвергать сомнению его результаты, включая осведомленность о предвзятости, конфиденциальности и источниках данных. Средний уровень включает использование генеративных инструментов, таких как ChatGPT или Copilot. На высшем уровне находятся продвинутые навыки — проектирование алгоритмов с учетом справедливости, прозрачности и ответственности.
Догнать в области грамотности ИИ означает инвестировать в повышение квалификации и переобучение, сочетающее критическое мышление с практическим использованием ИИ.
Будучи преподавателем университета, я часто вижу, как ИИ рассматривается в основном как риск списывания, а не как инструмент, которым студенты должны научиться ответственно пользоваться. Хотя его, безусловно, можно использовать не по назначению, преподаватели должны защищать академическую честность, одновременно готовя студентов к работе с этими системами.
Баланс между инновациями и ответственностью
Мы не можем запретить или игнорировать ИИ, но мы также не можем позволить гонке за эффективностью опередить нашу способность управлять его последствиями или решать вопросы справедливости, ответственности и доверия.
Развитие навыков и "отбойники" должны идти рука об руку. Канаде нужны разнообразные голоса за столом переговоров, реальные инвестиции, соответствующие ее амбициям, и сильная подотчетность, встроенная в любые законы, стандарты и меры защиты ИИ.
Будет разработано больше инструментов ИИ для поддержки обучения и работы, и появится больше дорогостоящих ошибок из-за слепого доверия к системам, которые мы не до конца понимаем. Вопрос не в том, распространится ли ИИ, а в том, создадим ли мы "отбойники" и уровень грамотности, необходимые для его адаптации.
ИИ может стать дополнением к экспертизе, но не ее заменой. По мере развития технологий должно развиваться и наше умение понимать его, подвергать сомнению и направлять на общее благо.
Нам нужно сочетать инновации с этикой, скорость с размышлением, а энтузиазм с образованием. "Отбойники" и развитие навыков, включая базовую грамотность в области ИИ, — это не противоборствующие силы; это две руки, которые будут поддерживать прогресс.
Комментарии
Комментариев пока нет.