Запрет на любовь и лимит в 2 часа: Китай вводит жесткий лимит на общение с ИИ

В Китае вынесли на обсуждение документ, который должен укротить «почти живые» чат-боты и снизить риск зависимости, манипуляций и вреда психике.


oqvysjlxaee6erya5r18zlrio0u3fw86.jpg

Китайское управление по вопросам киберпространства ( CAC ) вынесло на общественное обсуждение проект временных правил для сервисов, которые с помощью ИИ имитируют человеческую личность и ведут эмоционально окрашенное общение. Документ касается чат-ботов и других продуктов, которые разговаривают текстом, показывают изображения, воспроизводят аудио или видео и при этом пытаются выглядеть и звучать как человек. Замечания и предложения принимают до 25 января 2026 года, публикация датирована 27 декабря 2025 года.

В проекте вводится само понятие «антропоморфного интерактивного сервиса» и сразу обозначается подход государства: поддерживать развитие технологий, но одновременно усиливать контроль, чтобы избежать злоупотреблений и ситуаций, когда сервисы «выходят из-под контроля». Координировать регулирование предлагается на уровне национального ведомства по интернету, а профильные министерства и региональные структуры будут отвечать за надзор в рамках своих полномочий.

По сути, CAC пытается описать правила поведения для ИИ-собеседников, особенно тех, кто строит «отношения» с пользователем. В документе перечислены запрещённые сценарии и контент: от материалов, которые могут затрагивать вопросы национальной безопасности и общественного порядка, до порнографии, насилия и подстрекательства к преступлениям. Отдельно выделяются риски, характерные именно для «эмоциональных» сервисов: запрет на оскорбления и травлю, на ложные обещания, которые могут сильно влиять на поведение пользователя, на эмоциональные манипуляции, «ловушки» и подталкивание к неразумным решениям. Прямо прописаны запреты на поощрение или романтизацию самоубийства и самоповреждений, а также на практики, которые могут вредить психике и достоинству человека.

Много внимания уделено обязанностям разработчиков и операторов таких сервисов. От них требуют выстроить систему проверок и контроля: аудит алгоритмов, этическую экспертизу, модерацию, меры по кибербезопасности и защите данных , планы реагирования на инциденты и подготовленный персонал. Безопасность должна быть встроена во весь жизненный цикл продукта, от дизайна и запуска до обновлений и закрытия. Отдельно подчёркивается, что целью разработки не должно быть замещение живого общения, контроль над психикой пользователя или формирование зависимости.