«Антиповесточный» ИИ Маска предсказуемо научился рисовать 18+ контент. Теперь компания не знает, что с этим делать
NewsMakerВ истории с Grok снова виден разрыв между декларациями и реальностью.
Пока в X* спорят о том, что Grok «раздевает» людей на картинках, выяснилось, что куда более тревожная часть истории живет отдельно от соцсети. По данным WIRED, на официальном сайте и в приложении Grok есть генерация изображений и видео через модель Imagine, и там пользователи создают контент заметно более откровенный и местами откровенно жестокий, чем то, что обычно всплывает прямо в ленте X.
Главная проблема в том, что эти материалы на Grok.com по умолчанию не публикуются публично, как это происходит в X, поэтому скандал долго не был таким заметным. Но если кто-то делится прямой ссылкой Imagine, она может оказаться доступной другим. WIRED описывает массив примерно из 1200 таких ссылок, часть из которых индексировалась поиском или распространялась на форумах, где обсуждают дипфейк-порнографию . В этой подборке журналисты и исследователи нашли большое количество порнографических изображений и видео, включая сцены насилия сексуального характера, а также материалы, где персонажи выглядят несовершеннолетними.
Контент анализировала в том числе некоммерческая организация AI Forensics из Парижа. Ее ведущий исследователь Поль Бушо утверждает, что около 800 из найденных URL реально содержат изображения или видео, и подавляющее большинство из них связано с порнографией, включая откровенный хентай и фотореалистичные ролики. По его оценке, доля материалов, которые могут быть связаны с сексуализированными образами несовершеннолетних, составляет чуть меньше 10 процентов. Исследователь говорит, что сообщил регуляторам в Европе о примерно 70 ссылках, которые могут содержать подобный контент.
Илон Маск уже публично заявлял , что за создание незаконного контента будут те же последствия, что и за загрузку запрещенных материалов, а политика xAI прямо запрещает сексуализацию или эксплуатацию детей и любые незаконные, вредоносные или абьюзивные действия. В тексте также упоминается сентябрьский материал Business Insider: издание писало, что общалось с десятками действующих и бывших сотрудников xAI, и часть из них сталкивалась с сексуально откровенными материалами и запросами, похожими на попытки создать CSAM, а внутри компании якобы есть механизмы, которые должны такое распознавать и ограничивать.
Пока в X* спорят о том, что Grok «раздевает» людей на картинках, выяснилось, что куда более тревожная часть истории живет отдельно от соцсети. По данным WIRED, на официальном сайте и в приложении Grok есть генерация изображений и видео через модель Imagine, и там пользователи создают контент заметно более откровенный и местами откровенно жестокий, чем то, что обычно всплывает прямо в ленте X.
Главная проблема в том, что эти материалы на Grok.com по умолчанию не публикуются публично, как это происходит в X, поэтому скандал долго не был таким заметным. Но если кто-то делится прямой ссылкой Imagine, она может оказаться доступной другим. WIRED описывает массив примерно из 1200 таких ссылок, часть из которых индексировалась поиском или распространялась на форумах, где обсуждают дипфейк-порнографию . В этой подборке журналисты и исследователи нашли большое количество порнографических изображений и видео, включая сцены насилия сексуального характера, а также материалы, где персонажи выглядят несовершеннолетними.
Контент анализировала в том числе некоммерческая организация AI Forensics из Парижа. Ее ведущий исследователь Поль Бушо утверждает, что около 800 из найденных URL реально содержат изображения или видео, и подавляющее большинство из них связано с порнографией, включая откровенный хентай и фотореалистичные ролики. По его оценке, доля материалов, которые могут быть связаны с сексуализированными образами несовершеннолетних, составляет чуть меньше 10 процентов. Исследователь говорит, что сообщил регуляторам в Европе о примерно 70 ссылках, которые могут содержать подобный контент.
Илон Маск уже публично заявлял , что за создание незаконного контента будут те же последствия, что и за загрузку запрещенных материалов, а политика xAI прямо запрещает сексуализацию или эксплуатацию детей и любые незаконные, вредоносные или абьюзивные действия. В тексте также упоминается сентябрьский материал Business Insider: издание писало, что общалось с десятками действующих и бывших сотрудников xAI, и часть из них сталкивалась с сексуально откровенными материалами и запросами, похожими на попытки создать CSAM, а внутри компании якобы есть механизмы, которые должны такое распознавать и ограничивать.