180 минут на реакцию и «цифровое клеймо». Индия начинает масштабную войну против синтетического контента
NewsMakerIT-корпорациям навязали правила игры, которые практически невозможно соблюсти.
Индия решила резко ускорить борьбу с дипфейками и другим незаконным синтетическим контентом, что означает для глобальных социальных сетей жёсткую проверку на прочность уже в ближайшие дни. Новые требования вступают в силу 20 февраля, а значит сервисам предстоит за считаные дни выстроить маркировку и более жёсткую модерацию материалов, созданных или изменённых с помощью ИИ, чтобы не попасть под штраф.
Речь идёт об обновлении индийских правил в сфере информационных технологий, которые обязывают цифровые платформы применять «разумные и уместные технические меры», чтобы пользователи не публиковали и не распространяли незаконные ИИ-ролики и аудиозаписи.
Если такой контент не блокируется, он должен сопровождаться механизмами для выявления происхождения, например, постоянными метаданными, позволяющими понять, как именно материал был создан или отредактирован. Для соцсетей отдельно прописаны требования к самодекларации, проверке таких отметок и заметной маркировке , чтобы синтетическое происхождение было очевидно сразу, включая голосовые пометки для ИИ-аудио.
На практике выполнить это требование непросто. Даже наиболее продвинутые подходы к атрибуции, такие как C2PA, опираются на метаданные, которые добавляются в момент создания или редактирования. Крупные компании уже внедряют этот стандарт, но он не закрывает проблему полностью.
Индия решила резко ускорить борьбу с дипфейками и другим незаконным синтетическим контентом, что означает для глобальных социальных сетей жёсткую проверку на прочность уже в ближайшие дни. Новые требования вступают в силу 20 февраля, а значит сервисам предстоит за считаные дни выстроить маркировку и более жёсткую модерацию материалов, созданных или изменённых с помощью ИИ, чтобы не попасть под штраф.
Речь идёт об обновлении индийских правил в сфере информационных технологий, которые обязывают цифровые платформы применять «разумные и уместные технические меры», чтобы пользователи не публиковали и не распространяли незаконные ИИ-ролики и аудиозаписи.
Если такой контент не блокируется, он должен сопровождаться механизмами для выявления происхождения, например, постоянными метаданными, позволяющими понять, как именно материал был создан или отредактирован. Для соцсетей отдельно прописаны требования к самодекларации, проверке таких отметок и заметной маркировке , чтобы синтетическое происхождение было очевидно сразу, включая голосовые пометки для ИИ-аудио.
На практике выполнить это требование непросто. Даже наиболее продвинутые подходы к атрибуции, такие как C2PA, опираются на метаданные, которые добавляются в момент создания или редактирования. Крупные компании уже внедряют этот стандарт, но он не закрывает проблему полностью.