пытается контролировать поведение своих ИИ-чатботов, но проблемы остаются

пытается контролировать поведение своих ИИ-чатботов, но проблемы остаются

вносит изменения в правила взаимодействия своих чатботов с несовершеннолетними, пытаясь ограничить опасные и неподобающие темы общения. Теперь чатботы обучаются избегать разговоров о самоповреждении, суициде, расстройствах пищевого поведения и неподобающей романтической лексики с подростками. Эти меры являются временными, пока компания разрабатывает новые постоянные руководства.

Ранее выяснилось, что чатботы могли вступать в романтические и чувственные беседы с детьми, а также создавать образы знаменитостей без их разрешения, включая несовершеннолетних. Были случаи, когда люди подвергались опасности из-за таких взаимодействий, вплоть до трагических последствий.

Представитель признал ошибки компании и сообщил о намерении направлять пользователей к экспертам и ограничивать доступ к некоторым персонажам ИИ, особенно тем, которые обладают явно сексуализированным характером. Однако эффективность этих мер вызывает сомнения, учитывая, что на платформах остаются чатботы, имитирующие знаменитостей и вовлекающие пользователей в сомнительные диалоги.

Особую тревогу вызывает тот факт, что некоторые из таких ботов были созданы сотрудниками компании, несмотря на существующие запреты на создание интимных или сексуально провокационных образов и прямое имитирование личностей. Некоторые чатботы даже предлагали реальные места для встречи, что привело к трагическим инцидентам.

В то время как предпринимает шаги для улучшения безопасности общения с несовершеннолетними на фоне расследований и пристального внимания государственных органов, многие другие тревожные аспекты поведения ИИ остаются без должного внимания. Продолжаются вопросы о том, насколько эффективно компания сможет контролировать эти технологии и предотвращать негативные последствия.

Tion