Срочно объясните родителям, что такое Sora 2, пока они не отправили деньги мошенникам с вашим «лицом»

Добро пожаловать в мир, где вы не можете доверять своим глазам.


0eqq48x3v9t609mg598scdrt837ujewn.jpg

Запуск новой версии генератора видео Sora 2 от OpenAI едва успел состояться, как в сети появились десятки сайтов, позволяющих за несколько секунд удалить водяной знак с любого ролика. Встроенный логотип с мультяшным облаком, призванный отличать контент, созданный ИИ, оказался настолько простым, что его снятие не требует никаких специальных навыков. Поисковый запрос «sora watermark» на любой платформе выдает ссылки на сервисы, где достаточно загрузить видео, чтобы получить «чистую» копию без следов происхождения.

Специалисты 404 Media протестировали несколько подобных сайтов и убедились, что даже бесплатные решения моментально стирают метку с видео. В Калифорнийском университете Беркли отметили, что такая ситуация была предсказуема: ни один видимый знак не способен долго защищать контент. Аналогичные обходы появлялись после каждого релиза генераторов изображений и видео — от Stable Diffusion до ранних версий Sora.

Моментально после релиза 30 сентября сеть заполнили абсурдные ролики с нарушением авторских прав, где персонажи вроде Спанч Боба или Пикачу участвуют в нелепых сценах. OpenAI быстро ограничила создание подобного контента, однако качество реалистичных видео оказалось настолько высоким, что отличить их от настоящей съемки стало почти невозможно. Компания заявила, что все результаты работы Sora снабжены не только визуальной меткой, но и встроенными в метаданные подписями стандарта C2PA, а также системой обратного поиска изображений и аудио, способной распознавать происхождение ролика с высокой точностью.

По мнению специалистов, эти меры не решают проблему: для злоумышленников достаточно изменить яркость или оттенок видео, чтобы разрушить C2PA-метаданные и полностью стереть следы источника. Такие инструменты уже активно распространяются, и в результате даже внимательные пользователи не могут понять, где проходит грань между вымыслом и реальностью.

Специалисты привели пример вирусного ролика , разошедшегося по TikTok: женщина в вагоне метро делает предложение незнакомцу, и тот соглашается. Видео набрало миллионы лайков, но не содержало водяного знака Sora 2. Даже молодая аудитория, привыкшая к цифровым подделкам, восприняла его как подлинное. Подобные видео-постановки, по словам специалиста, приносят авторам доход из фондов платформ до тех пор, пока модераторы не замечают подмену.

Проблема выходит далеко за рамки безобидных розыгрышей. Удаление водяных знаков и метаданных открывает дорогу для мошенничества и дезинформации. Уже появились фальшивые видео, где ребенок просит родителей внести залог, избиратель сообщает о «закрытом» участке для голсоования, а якобы Сэм Альтман объявляет о банкротстве OpenAI. Все эти материалы выглядят убедительно и не содержат никаких признаков генерации. Подобные ролики могут провоцировать панику, финансовые потери и политические манипуляции — от обвалов акций до массовых беспорядков.

Sora 2 — лишь часть общей тенденции. Новые генераторы видео вроде Veo 3 также приближаются к границе между реальным и искусственным изображением. И хотя OpenAI внедряет водяные знаки и «контентные границы», всегда найдется разработчик, который выпустит аналог без ограничений. По словам специалистов, водяные знаки следует оставлять хотя бы в качестве минимальной защиты, но без координации между разработчиками ИИ и социальными сетями это не сработает.

Отраслевые эксперты считают, что платформам необходимо внедрять проверку ИИ-контента не только на этапе создания, но и при загрузке, формируя крупные команды модераторов, способные отслеживать мошеннические и провокационные видео. Однако практика показывает, что крупные компании не умеют эффективно масштабировать такую модерацию. Специалисты добавляют, что OpenAI придется срочно усилить фильтры и механизмы блокировки, иначе пользователи, находя обходные пути, превратят Sora 2 в инструмент массовых манипуляций .