Китай поставил интересы человека и государства выше ИИ?

Фламандская школа. Академическое обучение. XVII
Фламандская школа. Академическое обучение. XVII

Пока на Западе рассуждают, кто виноват, если так называемый искусственный интеллект (ИИ) переведет мошенникам деньги пользователя, доведет его до депрессии или самоубийства, Китай переходит к конкретным шагам, отмечает IT-редакция ИА Красная Весна.

Управление киберпространства Китая 27 декабря 2025 года опубликовало проект «Временных правила управления услугами имитационного взаимодействия на основе искусственного интеллекта» для общественного обсуждения. Ограничения касаются технологий, которые имитируют деятельность человека: мышление или общение через текст, изображения, аудио или видео.

Ответственность возложили на провайдеров. Они обязаны создавать системы управления, включая проверку алгоритмов, этическую экспертизу, модерацию контента, защиту данных и личной информации.

Правила запрещают генерировать или распространять контент, который наносит ущерб государственной безопасности, нарушает общественный порядок, разжигает ненависть или религиозные конфликты. Также запрещено создание порнографии, контента, пропагандирующего насилие, контента, оскорбляющего или клевещущего на других. Запрещается с помощью алгоритмов манипулировать пользователями, вводить их в заблуждение, создавать эмоциональные ловушки для принятия нерациональных решений или выманивать конфиденциальную информацию.

Для несовершеннолетних провайдеры обязаны создать специальный режим, требовать согласия родителей, устанавливать лимиты по времени и предоставлять родителям функции контроля. Запрещается использовать данные несовершеннолетних для обучения моделей без отдельного согласия родителей.

Для пожилых пользователей запрещается создавать сервисы, имитирующие их родственников или близких. При обнаружении у пользователей экстремальных эмоций или склонности к суициду система должна выводить шаблонные ответы с предложением обратиться за профессиональной помощью. В явных случаях диалог должен переключаться на оператора-человека для связи с родственниками или экстренными службами.

Провайдеры обязаны четко указывать, что пользователь взаимодействует с ИИ. При непрерывном использовании сервиса более двух часов необходимо выводить динамическое напоминание о перерыве. Провайдеры должны обеспечить пользователям простой способ выйти из режима эмоционального сопровождения. Они также обязаны использовать для обучения моделей данные, соответствующие социалистическим основным ценностям и отражающие лучшие традиции китайской культуры.

Дату введения новых мер еще не назвали, до 25 января власти будут принимать комментарии от населения. Но закон планируется ввести уже в следующем году.

Таким образом Китай вместо реакций на скандалы с ИИ решил действовать превентивно. Он заранее выстраивает правовой и технический барьер против самых очевидных и опасных злоупотреблений новой технологией. В Пекине явно понимают, что никакой реальный и тем более ожидаемый прогресс не имеет значение, если будет потерян человек или государственность.

Отдельно стоит отметить требование обучать модели на данных, отражающих социалистические основные ценности и лучшие традиции китайской культуры. Это попытка не просто противостоять размытию национальной идентичности, а использовать технологию для ее укрепления.

Конечно, пока трудно спрогнозировать, как это будет реализовано на практие. Но однозначно можно сказать, что такой подход лучше слепого благоговения перед ИИ и стремления внедрить его во всех сферах жизни.