Раздвоение Альтмана: пообещал не давать ИИ военным для слежки… и через 12 часов разрешил всё за $200 миллионов

OpenAI теряет корпоративный рынок из-за нового скандала.


l96i6dnduldyjd6on1gmi2c4ky6e4s2h.jpg

Конфликт вокруг военных заказов для ИИ-компаний в США начался с жесткого требования к Anthropic. Министр обороны Пит Хегсет захотел убрать из договора ограничения, которые запрещали использовать модели компании в двух самых спорных сценариях: для массовой слежки внутри страны и для полностью автономного летального оружия. Военные добивались более широкой формулировки, которая разрешала бы применять Claude для любых задач, если власти сочтут их законными. Дарио Амодеи на такие условия не согласился.

Реакция последовала сразу. Администрация Дональда Трампа лишила Anthropic всех государственных контрактов. Проблема была не в самом сотрудничестве с армией. Американские военные уже использовали решения Anthropic при выборе целей в начале конфликта с Ираном. Спор начался в другом месте: компания была готова работать с оборонным сектором, но не захотела позволять машинам убивать без человека в цепочке решения.

Сэм Альтман сначала занял почти такую же позицию. Утром 27 февраля глава OpenAI решил поддержать коллег из Anthropic и напомнил сотрудникам во внутреннем меморандуме, что его компания тоже давно считает недопустимыми три вещи: массовую слежку, автономное летальное оружие и опасные автоматизированные решения без участия человека.

Но к вечеру всё перевернулось. Альтман подписал с американским военным ведомством контракт на 200 миллионов долларов, причем в соглашении уже не было тех ограничений, о которых он говорил несколькими часами раньше.