В Нью-Йорке принят важный закон об ответственности и безопасности в области искусственного интеллекта — RAISE Act. Однако, в ходе обсуждения и до подписания губернатором штата, закон был значительно ослаблен. В этом процессе активное участие приняли не только крупные технологические компании, но и ведущие университеты.
Первоначальная версия закона требовала от разработчиков больших моделей ИИ (таких как OpenAI, , Google и др.) представлять планы по обеспечению безопасности и прозрачности, а также сообщать о серьезных инцидентах в сфере безопасности. Закон предусматривал запрет на выпуск моделей, если они создают «необоснованный риск критического вреда», включая угрозы массовой гибели или серьезных повреждений.
Однако окончательный вариант закона, подписанный губернатором, убрал эти ключевые положения, увеличил сроки уведомления о происшествиях и снизил штрафы. По мнению критиков, изменения сделали закон более выгодным для технологических компаний, ослабив требования к безопасности.
Среди активных противников изначальной версии закона была организация AI Alliance, в которую вошли крупные технологические корпорации и университеты, такие как Нью-Йоркский университет, Корнелл, Дартмут, Карнеги-Меллон, Йель и другие. Они провели рекламную кампанию, направленную на дискредитацию закона, утверждая, что он может замедлить рост рабочих мест и инвестиции в сфере технологий штата Нью-Йорк.
Университеты, участвующие в коалиции, имеют тесные связи с индустрией ИИ, включая проекты и партнерства с ведущими компаниями. Несмотря на общественный резонанс, многие учебные заведения не дали комментариев по поводу своей роли в кампании против закона.
Таким образом, процесс принятия важного нормативного акта по регулированию ИИ в Нью-Йорке оказался сложным и противоречивым, с участием как технологических гигантов, так и академического сообщества, что привело к смягчению жестких требований безопасности.


