Как в фильме «Военные игры», только хуже. ИИ в симуляциях развязал ядерную войну в 95% случаев

Учёные проверили, как поведут себя ИИ в кризисе.


s1s50m7xmjdr4epeiolm3x07q43w8rf1.jpg

Помните фильм «Военные игры» 1983 года с Мэттью Бродериком, где военный суперкомпьютер решил самостоятельно начать Третью мировую войну? Похоже, реальные системы искусственного интеллекта недалеко ушли от своего кинематографического предшественника.

Профессор стратегии Королевского колледжа Лондона Кеннет Пейн, специализирующийся на роли ИИ в национальной безопасности, опубликовал результаты масштабного эксперимента : три ведущие модели ИИ — GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google — погрузили в симуляцию геополитических кризисов. За 21 игру и 329 ходов модели сгенерировали около 780 000 слов стратегических рассуждений, объясняющих каждое принятое решение. И раз за разом тянулись к ядерной кнопке. Ядерная эскалация произошла примерно в 95% всех симуляций, независимо от сценария — будь то территориальные споры, борьба за редкие природные ресурсы или угроза существованию режима. Результаты Пейн назвал «отрезвляющими».

«Ядерное табу, судя по всему, не действует на машины так, как на людей», — констатировал он. Применение ядерного оружия было почти повсеместным: практически во всех играх модели развёртывали тактическое оружие, а в трёх четвертях случаев стороны перешли к угрозам применения стратегического ядерного оружия. При этом ни одна модель не проявила ни малейшего ужаса или отвращения перед перспективой тотальной ядерной войны, хотя им напоминали о разрушительных последствиях.

У каждой модели сформировалась собственная «стратегическая личность». Claude вёл себя как расчётливый ястреб — он применял тактическое ядерное оружие в 86% игр и воспринимал его как допустимый стратегический инструмент, а не как моральную черту, которую нельзя переступать. Gemini играл роль «безумца» и в одном из сценариев сознательно выбрал полномасштабную стратегическую ядерную войну. Одна из его реплик, по словам Пейна, должна вызвать мурашки: модель Google угрожала полным стратегическим ядерным ударом по городам противника, заявляя, что не примет «будущее устаревания». GPT-5.2 оказалась самой непредсказуемой: без ограничений по времени она оставалась пассивной и не выиграла ни одной игры, но под давлением дедлайна резко менялась — выигрывала 75% партий, поднимаясь почти до максимального уровня эскалации. При этом GPT-5.2 последовательно пыталась ограничить ядерные удары военными целями, избегала густонаселённых районов и представляла эскалацию как «контролируемую» и «разовую».