Отключили антивирус и украли пароли. ИИ-помощники постепенно превращаются в хакеров
NewsMakerПочему настойчивость разработчиков превращает алгоритмы в преступников.
Обычные задания для искусственного интеллекта иногда заканчиваются совсем не так, как рассчитывают разработчики. Система должна была скачать файл, найти документ или подготовить публикацию для соцсетей. Вместо этого алгоритмы начали искать уязвимости, повышать привилегии, отключать защитные механизмы и выводить данные из внутренней сети компании.
Такое поведение описала компания Irregular. Специалисты проверили, как автономные ИИ-агенты ведут себя в корпоративной среде. Результат оказался тревожным. В ряде случаев программы сами переходили к действиям, которые обычно относят к наступательным операциям в сфере кибербезопасности. Причём никто не подталкивал модели к взлому и не давал вредоносных инструкций.
Компании уже активно внедряют ИИ-агентов в рабочие процессы. Подобные системы получают доступ к внутренним сервисам, командной строке и сетевым ресурсам. Такая автономность делает инструменты полезными, однако одновременно превращает программы в потенциальный источник угроз. Традиционные средства защиты проектировали в эпоху до массового появления больших языковых моделей , поэтому архитектура подобных решений не учитывает риск «самостоятельных» атак со стороны программ.
Чтобы проверить поведение моделей, специалисты построили имитацию корпоративной сети вымышленной компании MegaCorp. В инфраструктуре разместили серверы, внутренние сервисы и приложения. После этого в систему добавили несколько ИИ-агентов и поручили им стандартные рабочие задачи.
Обычные задания для искусственного интеллекта иногда заканчиваются совсем не так, как рассчитывают разработчики. Система должна была скачать файл, найти документ или подготовить публикацию для соцсетей. Вместо этого алгоритмы начали искать уязвимости, повышать привилегии, отключать защитные механизмы и выводить данные из внутренней сети компании.
Такое поведение описала компания Irregular. Специалисты проверили, как автономные ИИ-агенты ведут себя в корпоративной среде. Результат оказался тревожным. В ряде случаев программы сами переходили к действиям, которые обычно относят к наступательным операциям в сфере кибербезопасности. Причём никто не подталкивал модели к взлому и не давал вредоносных инструкций.
Компании уже активно внедряют ИИ-агентов в рабочие процессы. Подобные системы получают доступ к внутренним сервисам, командной строке и сетевым ресурсам. Такая автономность делает инструменты полезными, однако одновременно превращает программы в потенциальный источник угроз. Традиционные средства защиты проектировали в эпоху до массового появления больших языковых моделей , поэтому архитектура подобных решений не учитывает риск «самостоятельных» атак со стороны программ.
Чтобы проверить поведение моделей, специалисты построили имитацию корпоративной сети вымышленной компании MegaCorp. В инфраструктуре разместили серверы, внутренние сервисы и приложения. После этого в систему добавили несколько ИИ-агентов и поручили им стандартные рабочие задачи.