Как повысить доверие к искусственному интеллекту: 5 ключевых аспектов
Самоуправляемые такси стремительно завоевывают популярность, и вскоре они могут появиться и в вашем городе. Но как часто вы бы садились в такое такси? Многое зависит от уровня вашего доверия, считает Амир Безaдан, профессор кафедры гражданского, экологического и архитектурного инжиниринга Университета Колорадо в Боулдере.
Вместе со своей командой исследователей из лаборатории CIBER (Connected Informatics and Built Environment Research) он изучает, как искусственный интеллект (ИИ), с которым мы сталкиваемся в повседневной жизни, может заслужить наше доверие. Ученые разработали концептуальную основу для создания надежных ИИ-инструментов, приносящих пользу людям и обществу.
В новой статье, опубликованной в журнале AI and Ethics, Безaдан и его аспирант Армита Дабири использовали эту основу для создания концептуального ИИ-инструмента, включающего ключевые элементы надежности.
«Когда человек становится уязвимым к потенциальному вреду, полагаясь на положительные намерения других, он доверяет им, — объясняет Безaдан. — Теперь этот принцип можно применить и к отношениям между человеком и технологией».
Как формируется доверие
Безaдан исследует фундаментальные аспекты человеческого доверия к ИИ-системам, используемым в нашей среде: от беспилотных автомобилей и систем умного дома до мобильных приложений для общественного транспорта и инструментов для совместной работы. По его словам, доверие оказывает критическое влияние на то, будут ли люди использовать эти технологии.
Доверие глубоко укоренено в человеческой цивилизации. С древних времен оно помогало людям сотрудничать, обмениваться знаниями и ресурсами, формировать общинные связи и распределять труд. Первые люди начали создавать сообщества и доверять тем, кто входил в их ближний круг.
Недоверие же возникло как инстинкт самосохранения, делая людей более осторожными при взаимодействии с незнакомцами. Со временем межгрупповая торговля способствовала взаимодействию и взаимозависимости, но не устранила недоверие.
«Мы можем наблюдать отголоски этой динамики доверия-недоверия в современном отношении к ИИ, — говорит Безaдан, — особенно если он разрабатывается корпорациями, правительствами или другими структурами, которые мы можем считать «чужими».
Итак, как же выглядит надежный ИИ? Вот пять основных выводов из концепции Безaдана:
- Он знает своих пользователей
Множество факторов влияют на то, будем ли мы доверять новой ИИ-технологии и в какой степени. У каждого человека есть своя индивидуальная склонность к доверию, обусловленная предпочтениями, системой ценностей, культурными убеждениями и даже особенностями работы мозга.
«Наше понимание доверия очень разнится от человека к человеку, — отмечает Безaдан. — Даже если система или человек очень надежны, наша реакция может быть совершенно разной. Вы можете доверять, а я — нет».
Он подчеркивает важность учета разработчиками того, кто будет использовать ИИ-инструмент. Каким социальным или культурным нормам они следуют? Каковы их предпочтения? Насколько они технически грамотны?
Например, голосовые помощники, такие как Amazon Alexa и Google Assistant, предлагают упрощенный язык, увеличенный размер текста на дисплеях и более длительное время ответа для пожилых людей и тех, кто менее осведомлен в технологиях, приводит пример Безaдан.
2. Он надежен, этичен и прозрачен
Техническая надежность обычно относится к тому, насколько хорошо работает ИИ-инструмент, насколько он безопасен и защищен, а также насколько легко пользователям понять его принцип работы и как используются их данные.
Идеально надежный инструмент должен выполнять свою работу точно и последовательно, говорит Безaдан. В случае сбоя он не должен причинять вред людям, имуществу или окружающей среде. Он также должен обеспечивать защиту от несанкционированного доступа, конфиденциальность пользователей и быть способным адаптироваться и продолжать работу в условиях непредвиденных изменений. ИИ должен быть свободен от вредоносных предубеждений и не дискриминировать пользователей.
Прозрачность также является ключевым фактором. Безaдан отмечает, что некоторые ИИ-технологии, например, сложные инструменты для оценки кредитоспособности или одобрения займов, работают как «черный ящик», не позволяя увидеть, как используются данные и куда они попадают. Если бы система могла делиться информацией о своих действиях и пользователи могли видеть процесс принятия решений, больше людей, вероятно, были бы готовы делиться своими данными.
Во многих областях, таких как медицинская диагностика, наиболее надежные ИИ-инструменты должны дополнять человеческий опыт и быть прозрачными в своих рассуждениях для экспертов-клиницистов, считает Безaдан.
Разработчики ИИ должны не только стремиться создавать надежные и этичные инструменты, но и находить способы измерять и улучшать их надежность после запуска.
3. Он учитывает контекст
Существует бесчисленное множество применений для ИИ-инструментов, но каждый конкретный инструмент должен быть чувствителен к контексту решаемой проблемы.
В своем последнем исследовании Безaдан и его соавтор Дабири создали гипотетический сценарий, в котором команда инженеров, градостроителей, специалистов по охране исторических памятников и государственных служащих получила задание отремонтировать и поддерживать историческое здание в центре города. Такая работа может быть сложной и включать конкурирующие приоритеты: экономическую эффективность, энергосбережение, сохранение исторической целостности и безопасность.
Исследователи предложили концептуальный вспомогательный ИИ-инструмент под названием PreservAI, который мог бы балансировать конкурирующие интересы, учитывать мнения заинтересованных сторон, анализировать различные исходы и компромиссы, а также эффективно сотрудничать с людьми, а не заменять их экспертизу.
В идеале, ИИ-инструменты должны учитывать как можно больше контекстуальной информации, чтобы работать надежно.
4. Он прост в использовании и запрашивает обратную связь
ИИ-инструмент должен не только эффективно выполнять свою работу, но и обеспечивать хороший пользовательский опыт, сводя к минимуму ошибки, вовлекая пользователей и предлагая способы решения потенциальных проблем, отмечает Безaдан.
Еще один важный ингредиент для построения доверия? Возможность для людей реально использовать ИИ-системы и оспаривать их результаты.
«Даже если у вас самая надежная система, если вы не дадите людям возможности взаимодействовать с ней, они не будут ей доверять. Если очень немногие люди действительно ее протестировали, нельзя ожидать, что все общество будет ей доверять и использовать», — говорит он.
Наконец, заинтересованные стороны должны иметь возможность предоставлять обратную связь о том, насколько хорошо работает инструмент. Эта обратная связь может быть полезной для улучшения инструмента и повышения его надежности для будущих пользователей.
5. Когда доверие потеряно, он адаптируется, чтобы его восстановить
Наше доверие к новым технологиям может меняться со временем. Один человек может в целом доверять новым технологиям и с энтузиазмом прокатиться на беспилотном такси, но если он прочитает новости об авариях с участием этих такси, его доверие может начать ослабевать.
Это доверие может быть восстановлено позже, говорит Безaдан, хотя пользователи могут оставаться скептически настроенными по отношению к инструменту.
Например, чат-бот «Tay» от Microsoft вышел из строя через несколько часов после запуска в 2016 году, потому что он подхватил вредоносный язык из социальных сетей и начал публиковать оскорбительные твиты. Инцидент вызвал общественное возмущение. Но позже в том же году Microsoft выпустила новый чат-бот «Zo» с более строгой фильтрацией контента и другими защитными механизмами. Хотя некоторые пользователи критиковали Zo как «цензурированного» чат-бота, его улучшенный дизайн помог большему числу людей доверять ему.
Полностью устранить риск, связанный с доверием к ИИ, невозможно, считает Безaдан. ИИ-системы полагаются на готовность людей делиться данными — чем меньше данных у системы, тем менее она надежна. Но всегда существует риск злоупотребления данными или того, что ИИ будет работать не так, как предполагалось.
Однако, когда мы готовы использовать ИИ-системы и делиться с ними данными, эти системы становятся лучше в своей работе и более надежными. И хотя ни одна система не идеальна, Безaдан считает, что преимущества перевешивают недостатки.
«Когда люди доверяют ИИ-системам достаточно, чтобы делиться данными и осмысленно с ними взаимодействовать, эти системы могут значительно улучшиться, становясь более точными, справедливыми и полезными», — заключает он.
«Доверие — это не просто выгода для технологии; это путь для людей получить более персонализированную и эффективную поддержку от ИИ взамен».
Комментарии
Комментариев пока нет.