$555.000 в год и гарантированный нервный срыв. OpenAI ищет человека на должность с «экстремальным уровнем стресса»
NewsMakerКогда обычного «кризис-менеджмента» уже недостаточно…
Компания OpenAI, разработавшая ChatGPT, объявила о поиске нового руководителя по безопасности. Вакансия с зарплатой в 555 тысяч долларов в год (3,5 млн рублей в месяц) предполагает прямую ответственность за минимизацию рисков, связанных с развитием искусственного интеллекта. Речь идёт как о потенциальных угрозах для психического здоровья, кибербезопасности и биологической безопасности, так и о возможных сценариях, при которых ИИ сможет самостоятельно обучаться и выйти из-под контроля.
Глава компании Сэм Альтман признал , что должность будет сопряжена с крайне высоким уровнем стресса. По его словам, новому сотруднику предстоит немедленно погрузиться в сложную работу, связанную с оценкой новых угроз и разработкой подходов к их предотвращению. На этом посту уже бывали случаи быстрой ротации — задачи оказываются настолько напряжёнными, что далеко не каждый способен справиться.
Риск, связанный с активным развитием ИИ, давно стал темой для обсуждения в технологическом сообществе. Генеральный директор Microsoft AI Мустафа Сулейман заявил в эфире BBC, что сегодня игнорировать риски от ИИ уже невозможно. Похожее мнение выразил и лауреат Нобелевской премии, один из основателей Google DeepMind Демис Хассабис. Он напомнил, что непредсказуемое поведение ИИ-систем может иметь тяжёлые последствия для человечества.
На фоне отсутствия серьёзного регулирования со стороны властей Соединённых Штатов и международных структур, ответственность за контроль за ИИ фактически возложена на сами компании. Компьютерный учёный Йошуа Бенжио, один из первопроходцев в области машинного обучения, с иронией отметил, что даже обычный бутерброд регулируется строже, чем технологии ИИ.
Компания OpenAI, разработавшая ChatGPT, объявила о поиске нового руководителя по безопасности. Вакансия с зарплатой в 555 тысяч долларов в год (3,5 млн рублей в месяц) предполагает прямую ответственность за минимизацию рисков, связанных с развитием искусственного интеллекта. Речь идёт как о потенциальных угрозах для психического здоровья, кибербезопасности и биологической безопасности, так и о возможных сценариях, при которых ИИ сможет самостоятельно обучаться и выйти из-под контроля.
Глава компании Сэм Альтман признал , что должность будет сопряжена с крайне высоким уровнем стресса. По его словам, новому сотруднику предстоит немедленно погрузиться в сложную работу, связанную с оценкой новых угроз и разработкой подходов к их предотвращению. На этом посту уже бывали случаи быстрой ротации — задачи оказываются настолько напряжёнными, что далеко не каждый способен справиться.
Риск, связанный с активным развитием ИИ, давно стал темой для обсуждения в технологическом сообществе. Генеральный директор Microsoft AI Мустафа Сулейман заявил в эфире BBC, что сегодня игнорировать риски от ИИ уже невозможно. Похожее мнение выразил и лауреат Нобелевской премии, один из основателей Google DeepMind Демис Хассабис. Он напомнил, что непредсказуемое поведение ИИ-систем может иметь тяжёлые последствия для человечества.
На фоне отсутствия серьёзного регулирования со стороны властей Соединённых Штатов и международных структур, ответственность за контроль за ИИ фактически возложена на сами компании. Компьютерный учёный Йошуа Бенжио, один из первопроходцев в области машинного обучения, с иронией отметил, что даже обычный бутерброд регулируется строже, чем технологии ИИ.