Создали монстра и испугались: OpenAI умоляет общество забыть про восстание машин

ИИ-компании меняют стратегию общения с публикой после всплеска агрессии против разработчиков.


hbqnossteirjo30k9e13agw7mw5jbmsz.jpg

Еще недавно руководители крупнейших ИИ-компаний сами рисовали почти апокалиптическую картину. Искусственный интеллект, говорили они, способен не только встряхнуть рынок труда или обострить вопросы безопасности, но и в худшем случае поставить под угрозу само существование человечества. Теперь тон заметно меняется. После нападений у дома Сэма Альтмана в OpenAI призывают говорить об ИИ осторожнее и не подливать масло в огонь.

Поворот в риторике связан с недавними инцидентами вокруг главы OpenAI. Как пишет San Francisco Standard, руководитель глобальной политики компании Крис Лихейн заявил , что часть публичных разговоров об искусственном интеллекте звучит безответственно и может иметь реальные последствия. Поводом стал как минимум один подтвержденный эпизод: по версии следствия, 20-летний Дэниел Морено-Гама бросил зажигательное устройство в дом Альтмана, а затем приехал к штаб-квартире OpenAI и ударил стулом по стеклянным дверям. Полиция также сообщала, что у задержанного нашли анти-ИИ документ, а Wall Street Journal писал о его высказываниях с призывами к насилию против техноглав. Еще один эпизод, произошедший через два дня рядом с домом Альтмана, где, по данным следствия, прозвучали выстрелы, пока остается предметом расследования.

На фоне таких событий слова Лихейна выглядят как попытка охладить атмосферу. По его версии, общество расколото между двумя крайностями. С одной стороны стоят сторонники ИИ, обещающие миру изобилие и досуг, с другой - так называемые думеры, которые смотрят на технологии через самый мрачный сценарий. Лихейн утверждает, что задача OpenAI и всей отрасли состоит в том, чтобы лучше объяснять людям практическую пользу ИИ для семей, работы и общества в целом.

Проблема в том, что еще недавно сами лидеры отрасли подталкивали разговор именно к мрачным сценариям. Сэм Альтман говорил о подобных рисках задолго до бума ChatGPT. Еще в 2015 году он допускал, что развитие ИИ «вероятно, скорее всего» может привести к концу света, хотя по пути появятся великие компании на базе машинного обучения. Позже Альтман предупреждал и о более конкретных угрозах, включая создание новых биологических патогенов с помощью ИИ. В 2023 году он подписал открытое письмо о риске вымирания, а затем писал, что опасность несет не только «невыравненный» сверхразум, но и авторитарный режим, который получит решающее преимущество в такой технологии.