Anthropic ужесточает правила использования ИИ в условиях растущей угрозы

Anthropic ужесточает правила использования ИИ в условиях растущей угрозы

Компания Anthropic обновила правила использования своего чат-бота Claude, чтобы усилить меры безопасности на фоне растущих опасений по поводу безопасности ИИ. В новых правилах теперь прямо запрещено использовать Claude для разработки биологических, химических, радиологических и ядерных видов оружия, а также мощных взрывчатых веществ. Ранее политика компании уже запрещала использование ИИ для создания или распространения оружия и опасных материалов, однако новые изменения делают этот запрет более конкретным и строгим.

В мае компания внедрила уровень защиты «AI Safety Level 3», который затрудняет взлом модели и предотвращает помощь в разработке опасных видов оружия. Также в обновленной политике появились правила, направленные на предотвращение злоупотреблений с помощью функций, позволяющих ИИ управлять компьютером пользователя или интегрироваться в терминалы разработчиков. Такие возможности несут в себе риски создания вредоносного ПО и кибератак.

Anthropic также добавила новые правила, запрещающие использование Claude для взлома компьютерных систем, создания вирусов, организации атак типа «отказ в обслуживании» и других вредоносных действий. Вместе с тем компания смягчила ограничения в области политического контента: теперь запрещено использовать ИИ лишь для обмана и нарушения демократических процессов, а также для целенаправленного воздействия на избирателей.

Эти обновления отражают стремление Anthropic обеспечить более безопасное и ответственное использование своих ИИ-технологий в условиях усложняющегося и опасного ландшафта искусственного интеллекта.

Tion