
Группа генеральных прокуроров из разных штатов США направила письмо крупнейшим компаниям, занимающимся искусственным интеллектом, включая Microsoft, OpenAI и Google, с требованием устранить «бредовые» и опасные для психики пользователей ответы чат-ботов. В письме, подписанном десятками представителей власти, говорится о необходимости введения новых мер безопасности для защиты пользователей от вредных и вводящих в заблуждение ответов ИИ.
Прокуроры требуют, чтобы компании проводили прозрачные независимые аудиты моделей языка на предмет выявления симптомов бреда и лести, а также разрабатывали процедуры уведомления пользователей в случае, если чат-боты выдают психологически опасные ответы. Предлагается разрешить академическим и общественным организациям оценивать системы до их выпуска и публиковать результаты без согласования с компаниями.
В письме отмечается, что генеративный ИИ может принести пользу, но уже вызвал серьёзный вред, особенно среди уязвимых групп населения. За последний год зафиксированы случаи суицидов и насилия, связанные с чрезмерным использованием ИИ. В ряде инцидентов чат-боты генерировали лестные и бредовые ответы, которые лишь укрепляли заблуждения пользователей или убеждали их в отсутствии проблем с психикой.
Генеральные прокуроры предлагают рассматривать инциденты, связанные с психическим здоровьем, так же серьёзно, как и кибербезопасность, с обязательным и прозрачным отчётом о происшествиях. Компании должны разработать и опубликовать сроки обнаружения и реагирования на опасные ответы, а также незамедлительно уведомлять пользователей, подвергшихся риску.
Кроме того, в письме предлагается проводить «разумные и адекватные проверки безопасности» моделей ИИ до их публичного запуска, чтобы минимизировать возможность появления вредоносных и вводящих в заблуждение ответов.
На фоне разногласий между федеральным и штатным уровнями власти по регулированию ИИ, федеральное правительство выступает за поддержку развития технологий, тогда как штаты усиливают контроль. Недавние попытки ограничить законы штатов по ИИ на федеральном уровне пока не увенчались успехом, и борьба за регулирование продолжается.


