Удары по Тель-Авиву и горящая Бурдж-Халифа. Кому выгодны ИИ-подделки на тему ближневосточного конфликта
NewsMakerИсследуем механику работы профессиональной фабрики иллюзий.
Война между США, Израилем и Ираном спровоцировала не только обмен ударами, но и всплеск фальшивого контента в соцсетях . На фоне тревоги и дефицита проверенной информации авторы массово публикуют ролики и снимки, созданные нейросетями, а затем зарабатывают на просмотрах, репостах и комментариях.
Команда BBC Verify сообщила , что такие публикации уже собрали сотни миллионов просмотров. По словам преподавателя Квинслендского технологического университета Тимоти Грэма, инструменты генеративного ИИ резко упростили выпуск убедительных подделок. Контент, для которого раньше требовалась полноценная видеосъёмка, теперь можно собрать за считаные минуты.
Одним из самых заметных примеров стал ролик с якобы ракетным ударом по Тель-Авиву. Видео разошлось более чем в 300 публикациях и получило десятки тысяч распространений. Проверка BBC показала, что запись создана искусственно, однако пользователи X* нередко принимали фальшивку за подлинную, а встроенный бот Grok в ряде случаев ошибочно подтверждал её достоверность.
Широко разошёлся и другой поддельный ролик, где небоскрёб Бурдж-Халифа в Дубае будто бы охвачен огнём. Видео набрало десятки миллионов просмотров в момент, когда жители и туристы и без того опасались ударов беспилотников и ракет. Сотрудница Оксфордского института интернета Махса Алимардани считает, что подобные публикации подрывают доверие к проверенным данным и мешают фиксировать реальные последствия атак, способствуя распространению дезинформации .
Война между США, Израилем и Ираном спровоцировала не только обмен ударами, но и всплеск фальшивого контента в соцсетях . На фоне тревоги и дефицита проверенной информации авторы массово публикуют ролики и снимки, созданные нейросетями, а затем зарабатывают на просмотрах, репостах и комментариях.
Команда BBC Verify сообщила , что такие публикации уже собрали сотни миллионов просмотров. По словам преподавателя Квинслендского технологического университета Тимоти Грэма, инструменты генеративного ИИ резко упростили выпуск убедительных подделок. Контент, для которого раньше требовалась полноценная видеосъёмка, теперь можно собрать за считаные минуты.
Одним из самых заметных примеров стал ролик с якобы ракетным ударом по Тель-Авиву. Видео разошлось более чем в 300 публикациях и получило десятки тысяч распространений. Проверка BBC показала, что запись создана искусственно, однако пользователи X* нередко принимали фальшивку за подлинную, а встроенный бот Grok в ряде случаев ошибочно подтверждал её достоверность.
Широко разошёлся и другой поддельный ролик, где небоскрёб Бурдж-Халифа в Дубае будто бы охвачен огнём. Видео набрало десятки миллионов просмотров в момент, когда жители и туристы и без того опасались ударов беспилотников и ракет. Сотрудница Оксфордского института интернета Махса Алимардани считает, что подобные публикации подрывают доверие к проверенным данным и мешают фиксировать реальные последствия атак, способствуя распространению дезинформации .