Извините, у нас гонка. Anthropic отказывается от обещания сдерживать опасный ИИ

Самая «осторожная» ИИ-компания решила, что безопасность подождет.


xhtca3kdsxbuycs0o4mc238yzycgbhwy.jpg

Компания Anthropic, которая долгое время позиционировала себя как самая ответственная среди ведущих разработчиков искусственного интеллекта, отказывается от ключевого обещания своей политики безопасности. Об этом изданию TIME рассказали представители компании.

В 2023 году Anthropic взяла на себя обязательство никогда не обучать новую модель ИИ, если не сможет заранее гарантировать достаточность своих мер безопасности. На протяжении двух лет руководство компании ставило это обещание - центральный элемент так называемой Политики ответственного масштабирования (RSP) - в пример, доказывая, что Anthropic не поддастся рыночному давлению и не станет торопиться с выпуском потенциально опасных технологий.

Однако в последние месяцы компания решила радикально пересмотреть эту политику, и главное изменение - отказ от обещания не выпускать модели ИИ без предварительных гарантий надлежащего контроля рисков.

«Мы пришли к выводу, что остановка обучения моделей никому бы не помогла, - заявил TIME главный научный сотрудник и сооснователь Anthropic Джаред Каплан. - В условиях стремительного развития ИИ нам не показалось разумным брать на себя односторонние обязательства, когда конкуренты мчатся вперёд на полной скорости».