Этика умных городов: программирование ценностей в ИИ
По мере того как местные власти внедряют новые технологии, автоматизирующие многие аспекты городских служб, возрастает вероятность возникновения конфликтов между этическими нормами и ожиданиями граждан, а также поведением этих «умных городских» инструментов. Исследователи предлагают подход, который позволит лицам, принимающим решения, и разработчикам технологий лучше согласовывать ценности, заложенные в технологии умных городов, с этическими принципами людей, которые будут с ними взаимодействовать.
«Наша работа закладывает основу для того, как мы можем одновременно определить, какими должны быть ценности технологии, управляемой искусственным интеллектом, и фактически запрограммировать эти ценности в соответствующие системы ИИ», — говорит Велько Дубльевич, автор статьи и выдающийся профессор философии в Университете Северной Каролины в Шейнсвилле.
Речь идет об умных городах — собирательном термине, охватывающем различные технологические и административные практики, появившиеся в городах в последние десятилетия. Примеры включают автоматизированные технологии, которые отправляют правоохранительные органы при обнаружении возможной стрельбы, или технологии, использующие автоматизированные датчики для мониторинга пешеходного и автомобильного трафика с целью управления всем: от уличного освещения до светофоров.
«Эти технологии могут создавать значительные этические вопросы», — отмечает Дубльевич, входящий в программу «Наука, технологии и общество» в NC State.
«Например, если технология ИИ предполагает, что она обнаружила выстрел, и отправляет спецназ в деловое место, но на самом деле шум был вызван чем-то другим, является ли это разумным? — спрашивает Дубльевич. — Кто определяет, в какой степени люди должны отслеживаться или контролироваться технологиями умного города? Какие действия должны выделять человека как объект усиленного наблюдения?»
«Это разумные вопросы, и на данный момент нет согласованной процедуры для ответов на них. И определенно нет четкой процедуры того, как мы должны обучать ИИ отвечать на эти вопросы».
Для решения этой задачи исследователи обратились к так называемой модели «Агент-Действие-Последствие» (ADC). Модель ADC утверждает, что люди учитывают три аспекта при принятии морального суждения: агент — характер или намерение человека, совершающего действие; действие — что именно делается; и последствие — результат, который возникает в результате действия.
В своей статье, опубликованной в журнале Algorithms, исследователи демонстрируют, что модель ADC может быть использована не только для понимания того, как люди формируют суждения о ценностях и принимают этические решения, но и в форме, пригодной для программирования в систему ИИ. Это стало возможным благодаря тому, что модель ADC использует деонтическую логику — тип императивной логики.
«Она позволяет нам улавливать не только то, что истинно, но и то, что должно быть сделано», — говорит Дэниел Шусетт, первый автор статьи и постдок-исследователь в NC State. «Это важно, потому что это движет действиями и может использоваться системой ИИ для различения законных и незаконных приказов или запросов».
«Например, если системе ИИ поручено управление дорожным движением, и скорая помощь с мигающими аварийными огнями приближается к светофору, это может быть сигналом для ИИ о том, что скорая помощь должна иметь приоритет, и система может изменить сигналы светофора, чтобы ускорить ее проезд, — говорит Дубльевич. — Это был бы законный запрос. Но если случайный автомобиль установит мигающие огни на крыше, пытаясь быстрее проехать через трафик, это был бы незаконный запрос, и ИИ не должен давать ему зеленый свет».
«С людьми можно объяснять вещи так, чтобы они учились тому, что можно и чего нельзя делать, но с компьютерами это не работает. Вместо этого вам нужно создать математическую формулу, представляющую цепочку рассуждений. Модель ADC позволяет нам создать такую формулу».
«Эти новые технологии умных городов внедряются по всему миру, и наша работа предполагает, что модель ADC может быть использована для решения всего спектра этических вопросов, которые порождают эти технологии, — отмечает Шусетт. — Следующим шагом является тестирование различных сценариев на множестве технологий в симуляциях, чтобы убедиться, что модель работает последовательно и предсказуемо. Если она пройдет эти тесты, то будет готова к испытаниям в реальных условиях».
Комментарии