ИИ в госуправлении: почему сложные решения требуют человека

Современные технологии искусственного интеллекта активно внедряются в государственный сектор для обработки административных вопросов и поддержки принятия решений. Это повышает прозрачность, так как становится понятным путь, который привёл к конкретному результату.

nn

«С помощью этих технологий ясно, что является правильным или неправильным, какие факторы необходимо учитывать. Мы можем сделать такие простые случаи более эффективными с помощью правил-ориентированного ИИ», — отмечает исследователь Дженни Эрикссон Лундстрём из Уппсальского университета.

nn

В Швеции не существует полностью автоматизированного принятия решений на основе ИИ в сфере государственного управления. Ближе всего к этому подходят системы оценки рисков и профилирования, используемые в Агентстве по трудоустройству.

nn

«Независимо от технологии, мы не можем возложить на машину ответственность за чувствительные решения, последствия которых сложно предсказать и где требуется человеческое суждение. Система ИИ может следовать правилам, обрабатывать большой объём информации и сообщать результаты. Но у машины нет опыта быть человеком, поэтому она не способна понять, что значит быть личностью», — подчёркивает Лундстрём.

nn

Пример из США показал: когда алгоритмы решали, каких заключённых можно досрочно освободить, афроамериканцы систематически подвергались дискриминации. ИИ основывал решение на социально-экономических факторах, связанных с расой и классом, например, районе проживания.

nn

«Алгоритмы отдавали предпочтение тем, кого не следовало выпускать. ИИ хорошо справляется с обработкой существующей информации и выявлением закономерностей. Но оценивать последствия решений с точки зрения дискриминации? Он не должен этого делать», — говорит Лундстрём.

nn

Чиновники, с которыми беседовала исследовательница, чётко обозначили, что сложные решения не могут приниматься машиной. И к этому стоит прислушаться. Эти сотрудники, наделённые властными полномочиями, чувствуют ответственность за сограждан и хотят учитывать все факторы, предписанные законом. Если законодательство допускает этические соображения при оценке, они стремятся их использовать.

nn

Опрошенные видели много преимуществ в использовании ИИ как инструмента поддержки. В шутку они называли системы полностью автоматического принятия решений «чёрными ящиками», поскольку невозможно проследить шаги алгоритма и понять, как был получен результат.

nn

Крайне важно понимать, как работают используемые системы. «Мы приписываем машине интеллект, хотя на самом деле это мы, люди, определяем, что ей позволено делать», — отмечает Лундстрём.

nn

В её исследовании выделены четыре ключевых аспекта, требующих контроля при принятии решений с помощью ИИ. Решение государственного органа должно быть:

nn

Материально корректным. Все relevantные факты должны быть учтены, взвешены и проверяемы.

nn

Этичным. Решение должно быть этически правильным.

nn

Объяснимым. Необходимо понимать и пояснять каждое решение, демонстрируя его основу в соответствии с принципом открытости.

nn

Безопасным. Данные должны обрабатываться securely и соответствовать законам о приватности.

nn

«Это также вопрос демократии. Если мы позволим машинам принимать решения, связанные с человеческой сущностью, мы рискуем подорвать права людей», — предупреждает Лундстрём.

nn

«Важно понимать, что граждане не являются однородной группой. Наши обстоятельства и опыт очень разные, поэтому человеческое взаимодействие необходимо для таких решений».

Комментарии

Гоша 19.10.2025 19:36
Машина видит цифры, человек — судьбы.

Информация

Опубликовано: 10 октября 2025
Категория:
Просмотров: 15