Вредоносный код научился собираться «на лету» прямо в памяти. И ваш антивирус это даже не заметит
NewsMakerСпециалисты Google зафиксировали рост числа попыток кражи «мозгов» ИИ-моделей.
Хакеры всё активнее подключают искусственный интеллект к своим атакам, и делают это не ради эксперимента, а ради скорости и масштаба. Новое исследование подразделения по анализу угроз Google показывает , что во второй половине 2025 года злоумышленники начали использовать такие системы почти на каждом этапе вторжения. От разведки и подбора жертв до написания вредоносных программ и фишинговых писем.
Аналитическая группа Google по угрозам зафиксировала рост попыток так называемого «извлечения моделей». Речь идёт о схемах, при которых злоумышленники через легальный доступ к интерфейсам сервисов шаг за шагом выкачивают логику работы больших языковых моделей и затем создают собственные копии. По сути, это кража интеллектуальной собственности. В компании сообщили, что такие попытки в течение года регулярно пресекались. Чаще всего за ними стояли коммерческие структуры и исследовательские группы, а не государственные хакерские команды.
При этом связанные с государствами группировки из КНДР, Ирана и Китая уже активно используют языковые модели как рабочий инструмент. С их помощью они собирают сведения о целях, изучают уязвимости, подготавливают правдоподобные фишинговые сообщения и ведут переписку с жертвами. Отмечается рост так называемого «фишинга с выстраиванием доверия», когда переписка ведётся в несколько этапов и выглядит максимально естественно. Раньше такие атаки часто выдавали ошибки языка и странные формулировки, теперь этот признак постепенно исчезает.
В Google подчёркивают, что пока не наблюдают прорывных возможностей, которые бы радикально изменили картину угроз. Искусственный интеллект ускоряет и упрощает уже известные приёмы, но не создал принципиально новых типов атак. Тем не менее эффективность операций выросла, а порог входа снизился.
Хакеры всё активнее подключают искусственный интеллект к своим атакам, и делают это не ради эксперимента, а ради скорости и масштаба. Новое исследование подразделения по анализу угроз Google показывает , что во второй половине 2025 года злоумышленники начали использовать такие системы почти на каждом этапе вторжения. От разведки и подбора жертв до написания вредоносных программ и фишинговых писем.
Аналитическая группа Google по угрозам зафиксировала рост попыток так называемого «извлечения моделей». Речь идёт о схемах, при которых злоумышленники через легальный доступ к интерфейсам сервисов шаг за шагом выкачивают логику работы больших языковых моделей и затем создают собственные копии. По сути, это кража интеллектуальной собственности. В компании сообщили, что такие попытки в течение года регулярно пресекались. Чаще всего за ними стояли коммерческие структуры и исследовательские группы, а не государственные хакерские команды.
При этом связанные с государствами группировки из КНДР, Ирана и Китая уже активно используют языковые модели как рабочий инструмент. С их помощью они собирают сведения о целях, изучают уязвимости, подготавливают правдоподобные фишинговые сообщения и ведут переписку с жертвами. Отмечается рост так называемого «фишинга с выстраиванием доверия», когда переписка ведётся в несколько этапов и выглядит максимально естественно. Раньше такие атаки часто выдавали ошибки языка и странные формулировки, теперь этот признак постепенно исчезает.
В Google подчёркивают, что пока не наблюдают прорывных возможностей, которые бы радикально изменили картину угроз. Искусственный интеллект ускоряет и упрощает уже известные приёмы, но не создал принципиально новых типов атак. Тем не менее эффективность операций выросла, а порог входа снизился.