ИИ в госуправлении: почему сложные решения требуют человека
Современные технологии искусственного интеллекта активно внедряются в государственный сектор для обработки административных вопросов и поддержки принятия решений. Это повышает прозрачность, так как становится понятным путь, который привёл к конкретному результату.
nn«С помощью этих технологий ясно, что является правильным или неправильным, какие факторы необходимо учитывать. Мы можем сделать такие простые случаи более эффективными с помощью правил-ориентированного ИИ», — отмечает исследователь Дженни Эрикссон Лундстрём из Уппсальского университета.
nnВ Швеции не существует полностью автоматизированного принятия решений на основе ИИ в сфере государственного управления. Ближе всего к этому подходят системы оценки рисков и профилирования, используемые в Агентстве по трудоустройству.
nn«Независимо от технологии, мы не можем возложить на машину ответственность за чувствительные решения, последствия которых сложно предсказать и где требуется человеческое суждение. Система ИИ может следовать правилам, обрабатывать большой объём информации и сообщать результаты. Но у машины нет опыта быть человеком, поэтому она не способна понять, что значит быть личностью», — подчёркивает Лундстрём.
nnПример из США показал: когда алгоритмы решали, каких заключённых можно досрочно освободить, афроамериканцы систематически подвергались дискриминации. ИИ основывал решение на социально-экономических факторах, связанных с расой и классом, например, районе проживания.
nn«Алгоритмы отдавали предпочтение тем, кого не следовало выпускать. ИИ хорошо справляется с обработкой существующей информации и выявлением закономерностей. Но оценивать последствия решений с точки зрения дискриминации? Он не должен этого делать», — говорит Лундстрём.
nnЧиновники, с которыми беседовала исследовательница, чётко обозначили, что сложные решения не могут приниматься машиной. И к этому стоит прислушаться. Эти сотрудники, наделённые властными полномочиями, чувствуют ответственность за сограждан и хотят учитывать все факторы, предписанные законом. Если законодательство допускает этические соображения при оценке, они стремятся их использовать.
nnОпрошенные видели много преимуществ в использовании ИИ как инструмента поддержки. В шутку они называли системы полностью автоматического принятия решений «чёрными ящиками», поскольку невозможно проследить шаги алгоритма и понять, как был получен результат.
nnКрайне важно понимать, как работают используемые системы. «Мы приписываем машине интеллект, хотя на самом деле это мы, люди, определяем, что ей позволено делать», — отмечает Лундстрём.
nnВ её исследовании выделены четыре ключевых аспекта, требующих контроля при принятии решений с помощью ИИ. Решение государственного органа должно быть:
nnМатериально корректным. Все relevantные факты должны быть учтены, взвешены и проверяемы.
nnЭтичным. Решение должно быть этически правильным.
nnОбъяснимым. Необходимо понимать и пояснять каждое решение, демонстрируя его основу в соответствии с принципом открытости.
nnБезопасным. Данные должны обрабатываться securely и соответствовать законам о приватности.
nn«Это также вопрос демократии. Если мы позволим машинам принимать решения, связанные с человеческой сущностью, мы рискуем подорвать права людей», — предупреждает Лундстрём.
nn«Важно понимать, что граждане не являются однородной группой. Наши обстоятельства и опыт очень разные, поэтому человеческое взаимодействие необходимо для таких решений».
Комментарии