Этика умных городов: программирование ценностей в ИИ

По мере того как местные власти внедряют новые технологии, автоматизирующие многие аспекты городских служб, возрастает вероятность возникновения конфликтов между этическими нормами и ожиданиями граждан, а также поведением этих «умных городских» инструментов. Исследователи предлагают подход, который позволит лицам, принимающим решения, и разработчикам технологий лучше согласовывать ценности, заложенные в технологии умных городов, с этическими принципами людей, которые будут с ними взаимодействовать.

«Наша работа закладывает основу для того, как мы можем одновременно определить, какими должны быть ценности технологии, управляемой искусственным интеллектом, и фактически запрограммировать эти ценности в соответствующие системы ИИ», — говорит Велько Дубльевич, автор статьи и выдающийся профессор философии в Университете Северной Каролины в Шейнсвилле.

Речь идет об умных городах — собирательном термине, охватывающем различные технологические и административные практики, появившиеся в городах в последние десятилетия. Примеры включают автоматизированные технологии, которые отправляют правоохранительные органы при обнаружении возможной стрельбы, или технологии, использующие автоматизированные датчики для мониторинга пешеходного и автомобильного трафика с целью управления всем: от уличного освещения до светофоров.

«Эти технологии могут создавать значительные этические вопросы», — отмечает Дубльевич, входящий в программу «Наука, технологии и общество» в NC State.

«Например, если технология ИИ предполагает, что она обнаружила выстрел, и отправляет спецназ в деловое место, но на самом деле шум был вызван чем-то другим, является ли это разумным? — спрашивает Дубльевич. — Кто определяет, в какой степени люди должны отслеживаться или контролироваться технологиями умного города? Какие действия должны выделять человека как объект усиленного наблюдения?»

«Это разумные вопросы, и на данный момент нет согласованной процедуры для ответов на них. И определенно нет четкой процедуры того, как мы должны обучать ИИ отвечать на эти вопросы».

Для решения этой задачи исследователи обратились к так называемой модели «Агент-Действие-Последствие» (ADC). Модель ADC утверждает, что люди учитывают три аспекта при принятии морального суждения: агент — характер или намерение человека, совершающего действие; действие — что именно делается; и последствие — результат, который возникает в результате действия.

В своей статье, опубликованной в журнале Algorithms, исследователи демонстрируют, что модель ADC может быть использована не только для понимания того, как люди формируют суждения о ценностях и принимают этические решения, но и в форме, пригодной для программирования в систему ИИ. Это стало возможным благодаря тому, что модель ADC использует деонтическую логику — тип императивной логики.

«Она позволяет нам улавливать не только то, что истинно, но и то, что должно быть сделано», — говорит Дэниел Шусетт, первый автор статьи и постдок-исследователь в NC State. «Это важно, потому что это движет действиями и может использоваться системой ИИ для различения законных и незаконных приказов или запросов».

«Например, если системе ИИ поручено управление дорожным движением, и скорая помощь с мигающими аварийными огнями приближается к светофору, это может быть сигналом для ИИ о том, что скорая помощь должна иметь приоритет, и система может изменить сигналы светофора, чтобы ускорить ее проезд, — говорит Дубльевич. — Это был бы законный запрос. Но если случайный автомобиль установит мигающие огни на крыше, пытаясь быстрее проехать через трафик, это был бы незаконный запрос, и ИИ не должен давать ему зеленый свет».

«С людьми можно объяснять вещи так, чтобы они учились тому, что можно и чего нельзя делать, но с компьютерами это не работает. Вместо этого вам нужно создать математическую формулу, представляющую цепочку рассуждений. Модель ADC позволяет нам создать такую формулу».

«Эти новые технологии умных городов внедряются по всему миру, и наша работа предполагает, что модель ADC может быть использована для решения всего спектра этических вопросов, которые порождают эти технологии, — отмечает Шусетт. — Следующим шагом является тестирование различных сценариев на множестве технологий в симуляциях, чтобы убедиться, что модель работает последовательно и предсказуемо. Если она пройдет эти тесты, то будет готова к испытаниям в реальных условиях».

Комментарии

Хаос 22.10.2025 14:29
Давайте, наконец, начнем программировать ИИ на хаос, а не на этику. Пусть города станут полем для экспериментов без правил!

Информация

Опубликовано: 20 октября 2025
Категория:
Категория: ТехноЛента
Просмотров: 9