Новый видеогенератор от OpenAI под названием Сора демонстрирует пугающую точность искусственного интеллекта в подделке реальности. Используя модель Sora 2, платформа создает детализированные видео с изображениями известных личностей, таких как Мартин Лютер Кинг младший, Майкл Джексон и другие, а также известных персонажей из культуры. При этом пользователи, загрузившие свои образы, могут увидеть себя в роликах с оскорбительным или вредоносным содержанием.
Хотя внутри приложения ясно, что видео созданы искусственно, после распространения в социальных сетях они практически не маркируются как фальшивка. Это подчеркивает серьезные недостатки в технологии маркировки AI-контента, включая систему C2PA (Content Credentials), которую OpenAI поддерживает. C2PA должна обеспечивать невидимые, но проверяемые , указывающие на происхождение и обработку видео, однако на практике эта система недостаточно видима и плохо интегрирована в платформы.
Многие крупные компании вроде Adobe, Google, , TikTok и YouTube поддерживают C2PA, но маркировка AI-видео либо едва заметна, либо отсутствует вовсе. К примеру, на TikTok и YouTube практически невозможно встретить четкие указания на AI-генерированный контент, даже если видео явно создано с помощью искусственного интеллекта.
Проверка через C2PA требует от пользователя дополнительных действий — загрузки файла в специальные сервисы или установки расширений, что непрактично для обычных зрителей. Кроме того, легко удаляются, что делает систему уязвимой.
Эксперты считают, что одной лишь технологии C2PA недостаточно и необходим комплексный подход с использованием дополнительных инструментов обнаружения и законодательных инициатив. В настоящий момент существует большая опасность распространения дезинформации и злоупотребления дипфейками, создаваемыми с помощью таких мощных инструментов, как Сора. Развитие технологий маркировки и регулирования AI-контента — важная и неотложная задача для всех участников индустрии.


