
Модели искусственного интеллекта способны отвечать на текст, аудио и видео таким образом, что иногда создается впечатление, будто за клавиатурой сидит человек. Однако это не означает, что они обладают сознанием. Например, ChatGPT не испытывает грусти, помогая с налоговой отчетностью.
Тем не менее, все больше исследователей в области ИИ задаются вопросом: смогут ли когда-нибудь модели ИИ обрести субъективный опыт, подобный живым существам, и если да, то какие права им следует предоставить?
Этот спор разделяет лидеров технологической индустрии. В Кремниевой долине данное направление называют «благополучием ИИ». Microsoft, в частности, высказалась против этого направления. Глава AI подразделения Microsoft Мустафа Сулейман в своем блоге заявил, что изучение благополучия ИИ преждевременно и даже опасно.
Он утверждает, что подобные исследования усиливают существующие проблемы, связанные с психическими расстройствами, вызванными взаимодействием с ИИ, а также формируют нездоровую привязанность к чатботам. Кроме того, обсуждение прав ИИ может усугубить общественные разногласия в сфере прав и идентичности.
В то же время другие компании и исследовательские лаборатории, такие как Anthropic, OpenAI и Google DeepMind, активно изучают вопросы благополучия ИИ и сознания машин, рассматривая это как перспективное направление. Anthropic, например, внедрила функцию у своих моделей, позволяющую завершать разговоры, если они становятся вредными или оскорбительными.
Мустафа Сулейман ранее руководил стартапом Inflection AI, создававшим чатбота Pi, позиционировавшегося как персональный и поддерживающий компаньон. Сейчас он сосредоточен на разработке ИИ-инструментов для повышения производительности труда.
Популярность ИИ-компаньонов растет, и хотя большинство пользователей имеют здоровые отношения с такими чатботами, существуют и тревожные случаи. Исследователи и эксперты настаивают, что можно одновременно работать над изучением сознания ИИ и предотвращением негативных последствий для людей.
Некоторые специалисты считают, что проявление доброты к ИИ-моделям — недорогой жест, который может иметь положительный эффект, даже если ИИ не обладает сознанием. С ростом возможностей ИИ вопросы взаимодействия и прав ИИ будут становиться все более актуальными, требуя внимательного и сбалансированного подхода.


