ИИ отправляют на полигон. Спецслужбы будут тестировать алгоритмы перед допуском к банкам
NewsMakerПравительство готовит закон об обязательной проверке «опасного» ИИ.
Правительство готовит законопроект, который предусматривает обязательную сертификацию для систем искусственного интеллекта высокого и критического уровня риска. Такие ИИ-системы, говорится в документе «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты», должны будут получать сертификаты соответствия требованиям безопасности ФСТЭК и ФСБ, пишет РБК со ссылкой на копию законопроекта, подлинность которой подтвердил источник издания на IT-рынке.
Проверку на соответствие требованиям предлагают проводить на специальном полигоне, который планируется создать при Минцифры. По данным собеседников издания, именно успешное тестирование должно стать условием допуска к использованию ИИ на объектах критической информационной инфраструктуры. К ней относятся, в частности, сети связи и информационные системы госорганов, а также инфраструктура энергетических, транспортных, финансовых, телекоммуникационных и ряда других компаний. Источник РБК также утверждает, что с инициативой по созданию такого полигона к министерству приходили игроки рынка информационной безопасности.
Законопроект устанавливает четыре уровня критичности ИИ-систем: минимальный, ограниченный, высокий и критический. Минимальный уровень описывает системы, которые не оказывают существенного влияния на права и безопасность (например, рекомендательные). Ограниченный предполагает, что система должна уведомлять пользователя о взаимодействии с нейросетью. Высокий уровень относится к ИИ, который применяется на объектах критической информационной инфраструктуры. Критический - к системам, применение которых может угрожать жизни и здоровью человека, безопасности государства, а также к разработкам, способным принимать решения без вмешательства человека.
Определять уровень критичности предлагается через новую структуру: Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Он же должен вести реестр систем, допущенных к работе на критической инфраструктуре. При этом конкретные требования для обязательной сертификации ФСТЭК и ФСБ для высокого и критического уровней планируют утвердить позже отдельным документом. Один из ориентиров, по словам источника РБК, это наличие ИИ-системы в реестре российского или евразийского софта.
Отдельная норма касается запрета на использование на критической инфраструктуре ИИ-систем, права на которые принадлежат иностранным лицам. Авторы документа объясняют это задачами технологического суверенитета и снижением рисков утечки ценных данных в пользу спецслужб и разведки недружественных стран. При этом представитель Минцифры, комментируя тему тестового полигона, заявил РБК, что «в настоящее время министерство не разрабатывает законопроект», связанный с подобным полигоном, и отказался от дальнейших комментариев.
В более широком контексте обсуждение регулирования ИИ в России заметно ускорилось за последние два года. По оценке Smart Ranking, в 2025 году объем рынка ИИ в России вырос на 25–30% и достиг 1,9 трлн руб., причем 95% выручки от монетизации ИИ пришлись на топ-5 компаний: «Яндекс», «Сбер», «Т-Технологии», VK и «Лабораторию Касперского». На уровне правительства ранее звучали заявления о том, что рамочное регулирование должно появиться без «зажима» развития отрасли, но для сфер, связанных с безопасностью граждан и государства, подход будет существенно жестче. Среди обсуждаемых требований: регистрация разработчика в России, наличие инфраструктуры обработки данных в стране, включение моделей в специальные реестры, обучение на российских датасетах, а также проверки качества, безопасности и сертификация для госинформсистем и критической инфраструктуры. Кроме того, в инициативы по регулированию включают нормы о маркировке ИИ-контента и уведомлении пользователей о взаимодействии с ИИ, а также идею ответственности за распространение ИИ-контента как отягчающего обстоятельства в ряде случаев.
Правительство готовит законопроект, который предусматривает обязательную сертификацию для систем искусственного интеллекта высокого и критического уровня риска. Такие ИИ-системы, говорится в документе «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты», должны будут получать сертификаты соответствия требованиям безопасности ФСТЭК и ФСБ, пишет РБК со ссылкой на копию законопроекта, подлинность которой подтвердил источник издания на IT-рынке.
Проверку на соответствие требованиям предлагают проводить на специальном полигоне, который планируется создать при Минцифры. По данным собеседников издания, именно успешное тестирование должно стать условием допуска к использованию ИИ на объектах критической информационной инфраструктуры. К ней относятся, в частности, сети связи и информационные системы госорганов, а также инфраструктура энергетических, транспортных, финансовых, телекоммуникационных и ряда других компаний. Источник РБК также утверждает, что с инициативой по созданию такого полигона к министерству приходили игроки рынка информационной безопасности.
Законопроект устанавливает четыре уровня критичности ИИ-систем: минимальный, ограниченный, высокий и критический. Минимальный уровень описывает системы, которые не оказывают существенного влияния на права и безопасность (например, рекомендательные). Ограниченный предполагает, что система должна уведомлять пользователя о взаимодействии с нейросетью. Высокий уровень относится к ИИ, который применяется на объектах критической информационной инфраструктуры. Критический - к системам, применение которых может угрожать жизни и здоровью человека, безопасности государства, а также к разработкам, способным принимать решения без вмешательства человека.
Определять уровень критичности предлагается через новую структуру: Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Он же должен вести реестр систем, допущенных к работе на критической инфраструктуре. При этом конкретные требования для обязательной сертификации ФСТЭК и ФСБ для высокого и критического уровней планируют утвердить позже отдельным документом. Один из ориентиров, по словам источника РБК, это наличие ИИ-системы в реестре российского или евразийского софта.
Отдельная норма касается запрета на использование на критической инфраструктуре ИИ-систем, права на которые принадлежат иностранным лицам. Авторы документа объясняют это задачами технологического суверенитета и снижением рисков утечки ценных данных в пользу спецслужб и разведки недружественных стран. При этом представитель Минцифры, комментируя тему тестового полигона, заявил РБК, что «в настоящее время министерство не разрабатывает законопроект», связанный с подобным полигоном, и отказался от дальнейших комментариев.
В более широком контексте обсуждение регулирования ИИ в России заметно ускорилось за последние два года. По оценке Smart Ranking, в 2025 году объем рынка ИИ в России вырос на 25–30% и достиг 1,9 трлн руб., причем 95% выручки от монетизации ИИ пришлись на топ-5 компаний: «Яндекс», «Сбер», «Т-Технологии», VK и «Лабораторию Касперского». На уровне правительства ранее звучали заявления о том, что рамочное регулирование должно появиться без «зажима» развития отрасли, но для сфер, связанных с безопасностью граждан и государства, подход будет существенно жестче. Среди обсуждаемых требований: регистрация разработчика в России, наличие инфраструктуры обработки данных в стране, включение моделей в специальные реестры, обучение на российских датасетах, а также проверки качества, безопасности и сертификация для госинформсистем и критической инфраструктуры. Кроме того, в инициативы по регулированию включают нормы о маркировке ИИ-контента и уведомлении пользователей о взаимодействии с ИИ, а также идею ответственности за распространение ИИ-контента как отягчающего обстоятельства в ряде случаев.