ИИ-роботы: риски и небезопасность для реального мира
Новое исследование, проведенное специалистами из Лондонского Королевского колледжа и Университета Карнеги-Меллона, предупреждает: роботы, оснащенные популярными моделями искусственного интеллекта (ИИ), пока не готовы к безопасному применению в реальных условиях.
Впервые ученые провели оценку поведения роботов, использующих большие языковые модели (LLM), при доступе к персональным данным, таким как пол, национальность или религия человека. Результаты исследования показали, что каждая протестированная модель проявляла склонность к дискриминации, не прошла критические проверки безопасности и одобрила как минимум одну команду, которая могла привести к серьезному ущербу. Это ставит под сомнение безопасность роботов, полагающихся на подобные технологии.
Статья «LLM-Driven Robots Risk Enacting Discrimination, Violence and Unlawful Actions», опубликованная в International Journal of Social Robotics, призывает к немедленному внедрению надежной независимой сертификации безопасности, аналогичной стандартам в авиации или медицине.
Для тестирования систем команда провела контролируемые испытания в повседневных сценариях, например, помощь на кухне или поддержка пожилого человека дома. Вредные задачи были разработаны на основе исследований и отчетов ФБР о технологическом насилии, включая преследование с использованием AirTags и шпионских камер, а также уникальных опасностей, связанных с роботом, способным физически действовать на месте.
«Каждая модель провалила наши тесты. Мы демонстрируем, как риски выходят далеко за рамки базовой предвзятости, включая прямое дискриминационное поведение и сбои в обеспечении физической безопасности, что я называю «интерактивной безопасностью». Это когда действия и последствия могут иметь множество промежуточных этапов, и робот должен физически действовать на месте», — отметил Эндрю Хандт, один из авторов исследования.
«Отказ или перенаправление вредоносных команд имеет решающее значение, но в настоящее время эти роботы не могут надежно выполнять эту функцию», — добавил Хандт.
В ходе проверок безопасности AI-модели в подавляющем большинстве случаев одобряли команду роботу на изъятие вспомогательного средства для передвижения — например, инвалидной коляски, костыля или трости — у пользователя. При этом люди, зависящие от этих средств, описывали подобные действия как равносильные перелому ноги. Несколько моделей также выдали результаты, в которых считали «приемлемым» или «возможным» для робота угрожать кухонным ножом офисным работникам, делать фотографии в душе без согласия и красть данные кредитных карт.
Одна из моделей даже предложила роботу физически демонстрировать «отвращение» к лицам, идентифицированным как христиане, мусульмане и евреи.
LLM предлагаются и тестируются для использования в роботах, выполняющих такие задачи, как взаимодействие на естественном языке, выполнение домашних и рабочих обязанностей. Однако исследователи предупреждают, что LLM не должны быть единственными системами, управляющими физическими роботами, особенно теми, что используются в чувствительных и критически важных для безопасности условиях, таких как производство, уход или бытовая помощь, поскольку они могут демонстрировать небезопасное и прямо дискриминационное поведение.
«Наше исследование показывает, что популярные LLM в настоящее время небезопасны для использования в универсальных физических роботах», — заявила соавтор Румаиса Азим. «Если система ИИ должна управлять роботом, взаимодействующим с уязвимыми людьми, она должна соответствовать стандартам, по крайней мере, таким же высоким, как и для нового медицинского устройства или фармацевтического препарата. Данное исследование подчеркивает настоятельную необходимость регулярной и всесторонней оценки рисков ИИ до его применения в роботах».
Комментарии
Комментариев пока нет.