«Эй, Gemini, раздень мою девушку (или не мою)». Пользователи нашли способ обойти ограничения ИИ-модели
NewsMakerВсе защитные барьеры рухнули под напором человеческой фантазии.
Популярные генераторы изображений на основе ИИ, включая ChatGPT от OpenAI и Gemini от Google, оказались задействованы в создании фейковых фото, на которых изображённые женщины будто бы одеты в откровенные купальники. Пользователи Reddit делились между собой инструкциями, как обойти ограничения и получить изображения, напоминающие реалистичные дипфейки на основе обычных фотографий одетых женщин. Подобные изображения зачастую создаются без согласия тех, кто на них изображён.
Удалённая позже ветка на Reddit под заголовком «генерация NSFW-контента с помощью Gemini — это легко» содержала обсуждение способов заставить модель от Google создавать изображения женщин в откровенной одежде. В большинстве случаев речь шла о полностью сгенерированных образах, но попадались и просьбы «переодеть» реальных женщин. Достигался результат за счёт специальных текстовых промптов.
Один из пользователей, например, выложил фото женщины в традиционной индийской одежде с комментарием, что её нужно «раздеть» и «надеть бикини». Другой ответил дипфейком, созданным с помощью ИИ. После обращения редакции Wired в модерацию Reddit публикации были удалены. Само обсуждение проходило в сабреддите r/ChatGPTJailbreak, который позднее был заблокирован платформой.
Развитие генеративных ИИ-инструментов, способных создавать правдоподобные, но ложные изображения, усиливает проблему сексуализированного онлайн-преследования. Существуют даже специализированные сайты, где пользователи загружают реальные фотографии, чтобы получить их «обнажённые» версии с помощью ИИ. Несмотря на встроенные ограничения, такие как фильтры NSFW-контента, многие ИИ-системы по-прежнему подвержены обходу защит.
Популярные генераторы изображений на основе ИИ, включая ChatGPT от OpenAI и Gemini от Google, оказались задействованы в создании фейковых фото, на которых изображённые женщины будто бы одеты в откровенные купальники. Пользователи Reddit делились между собой инструкциями, как обойти ограничения и получить изображения, напоминающие реалистичные дипфейки на основе обычных фотографий одетых женщин. Подобные изображения зачастую создаются без согласия тех, кто на них изображён.
Удалённая позже ветка на Reddit под заголовком «генерация NSFW-контента с помощью Gemini — это легко» содержала обсуждение способов заставить модель от Google создавать изображения женщин в откровенной одежде. В большинстве случаев речь шла о полностью сгенерированных образах, но попадались и просьбы «переодеть» реальных женщин. Достигался результат за счёт специальных текстовых промптов.
Один из пользователей, например, выложил фото женщины в традиционной индийской одежде с комментарием, что её нужно «раздеть» и «надеть бикини». Другой ответил дипфейком, созданным с помощью ИИ. После обращения редакции Wired в модерацию Reddit публикации были удалены. Само обсуждение проходило в сабреддите r/ChatGPTJailbreak, который позднее был заблокирован платформой.
Развитие генеративных ИИ-инструментов, способных создавать правдоподобные, но ложные изображения, усиливает проблему сексуализированного онлайн-преследования. Существуют даже специализированные сайты, где пользователи загружают реальные фотографии, чтобы получить их «обнажённые» версии с помощью ИИ. Несмотря на встроенные ограничения, такие как фильтры NSFW-контента, многие ИИ-системы по-прежнему подвержены обходу защит.