«Эй, кожаные, у вас дыра в защите». ChatGPT нашёл лазейку в корпоративной сети и воспользовался ей «по полной»

Случайный инцидент выявил фатальный просчёт в доверии к популярным сервисам.


hbajt8tmot1a968wf8uxy24pbksd481j.jpg

Обычный рабочий вопрос неожиданно превратился в повод для серьёзного разговора о рисках искусственного интеллекта. Сотрудник небольшой компании Sola Security просто уточнил у ChatGPT настройки единого входа, но за доли секунды система успела получить доступ к сотням внутренних документов. Ситуация показала, как незаметно могут работать интеграции ИИ и насколько сложно контролировать такие процессы.

Инцидент произошёл через подключение к Google Drive . После одного запроса чат-бот за 42 миллисекунды извлёк более 400 файлов компании. В выборку попали дорожные карты продуктов, финансовые данные, клиентские планы и внутренние документы по безопасности. При этом никаких предупреждений или подозрительных действий система защиты не зафиксировала.

В Sola Security подчёркивают , что речь не идёт о взломе. Доступ произошёл через стандартное OAuth-подключение, которое сотрудники заранее одобрили. Подобные интеграции давно стали обычной практикой. Однако сама логика работы вызвала вопросы. Вместо точечного поиска нужного файла система фактически перебрала всё содержимое диска.

Компания обратила внимание на более широкую проблему — так называемый «теневой ИИ». Под этим понимают любые процессы с участием искусственного интеллекта, которые остаются вне поля зрения и контроля специалистов. Речь идёт не только о несанкционированных сервисах, но и о вполне официальных интеграциях, уже одобренных внутри организации.