Нейросети наконец повысили производительность труда. Жаль, что только у телефонных мошенников
NewsMakerИнтерпол: мошенничество с ИИ приносит в 4,5 раза больше прибыли, чем обычные атаки.
Искусственный интеллект наконец начал приносить заметный рост производительности, но в первую очередь выгоду получили мошенники. По оценке Интерпола , финансовые схемы с применением ИИ приносят преступникам в 4,5 раза больше прибыли, чем атаки без таких инструментов. Генеративные модели резко повысили качество обмана и упростили масштабирование преступных операций.
Чаще всего злоумышленники используют нейросети для доработки сообщений, писем и других приманок для жертв. Такие сервисы убирают языковые ошибки, сглаживают неестественные формулировки и помогают точнее копировать стиль известных компаний. Подобная обработка заметно повышает шансы на успех в атаках, где мошенник выдает себя за бренд, сотрудника банка или другого доверенного отправителя.
Отдельную тревогу вызывают дипфейки. Современные инструменты позволяют создать убедительную копию голоса всего по 10 секундам исходной записи, например по фрагменту ролика из соцсетей. На теневых площадках уже продаются готовые наборы для создания синтетической личности, фактически deepfake-as-a-service, которые помогают быстро собрать правдоподобный образ знакомого человека и втереться в доверие.
В годовом отчете говорится, что такие наборы стоят недорого и ускоряют превращение финансового мошенничества в хорошо отлаженную индустрию. За последние два года технологии, криптовалюты, большие языковые модели и платформы fraud-as-a-service заметно снизили порог входа. В результате даже небольшие группы получают доступ к инструментам, которые раньше требовали серьезной подготовки, бюджета и технической команды.
Искусственный интеллект наконец начал приносить заметный рост производительности, но в первую очередь выгоду получили мошенники. По оценке Интерпола , финансовые схемы с применением ИИ приносят преступникам в 4,5 раза больше прибыли, чем атаки без таких инструментов. Генеративные модели резко повысили качество обмана и упростили масштабирование преступных операций.
Чаще всего злоумышленники используют нейросети для доработки сообщений, писем и других приманок для жертв. Такие сервисы убирают языковые ошибки, сглаживают неестественные формулировки и помогают точнее копировать стиль известных компаний. Подобная обработка заметно повышает шансы на успех в атаках, где мошенник выдает себя за бренд, сотрудника банка или другого доверенного отправителя.
Отдельную тревогу вызывают дипфейки. Современные инструменты позволяют создать убедительную копию голоса всего по 10 секундам исходной записи, например по фрагменту ролика из соцсетей. На теневых площадках уже продаются готовые наборы для создания синтетической личности, фактически deepfake-as-a-service, которые помогают быстро собрать правдоподобный образ знакомого человека и втереться в доверие.
В годовом отчете говорится, что такие наборы стоят недорого и ускоряют превращение финансового мошенничества в хорошо отлаженную индустрию. За последние два года технологии, криптовалюты, большие языковые модели и платформы fraud-as-a-service заметно снизили порог входа. В результате даже небольшие группы получают доступ к инструментам, которые раньше требовали серьезной подготовки, бюджета и технической команды.