Куда впишется Россия на глобальной карте регулирования ИИ?

Развивать нельзя регулировать, или Нейросети вне закона

Д. Б. Альховский. «И. П. Павлов читает лекцию слушателям Военно-медицинской академии. 1920
Д. Б. Альховский. «И. П. Павлов читает лекцию слушателям Военно-медицинской академии. 1920

Минцифры РФ представило на общественное обсуждение проект закона о регулировании так называемого искусственного интеллекта. Документ вводит право граждан на обжалование решений ИИ и требует обязательной маркировки сгенерированного контента. Это безусловно шаг вперед, но достаточно ли его, чтобы ответить на вызовы, которые несет с собой новая технология? Сравним инициативу с тем, как к проблеме подходят в других странах, а также попробуем понять, чего в законопроекте нет.

Если сравнивать то, какие меры по регулированию использования нейросетей вводят или планируют вводить в разных частях света, то сразу можно заметить отсутствие единого подхода. Это вполне объяснимо, так как сфера абсолютно новая. Но видны две тенденции: стремление максимально жестко зарегулировать цифровых помощников и предоставление максимальной свободы для развития технологии. Минцифры, похоже, пытается найти путь между двумя крайностями.

США: максимальная дерегуляция ИИ

Президент США Дональд Трамп подписал указы, которые отменили все меры регулирования применения ИИ, введенные его предшественником Джо Байденом. Новая политика требует «минимально обременительного» регулирования, а минюст получил задачу через суд оспаривать «излишние» ограничения в штатах. Считается, что это ускорит развитие технологии и привлечет инвестиции. Но одновременно отсутствие регуляции создает и огромные риски, связанные с бесконтрольным применением нейросетей.

Это даже не отстранение государства от урегулирования с подходом «сначала инновации, безопасность — потом». Это запрет на регулирование, когда во главу угла ставится лидерство страны в мире, а вопросы безопасности признаны незначительным фактором. Тут проблема не только в том, что пострадавших от нейросетей оставляют один на один с корпорациями, но в том, что еще слабо изучено влияние технологии на человека.

Также стоит отметить, что влияние ИИ на рост экономики, как оказалось сильно переоценили. Конечно, это еще не полноценный искусственный интеллект, как признают в том числе и его разработчики. Речь идет о создании «полноценного» ИИ, который и должен дать некое невероятное преимущество создателю. Если же эта цель окажется недостижимой, тогда у США останутся одни издержки без приобретений. Но польза от создания невероятной технологии также сомнительна, если она приведет к потере человека.

Китай: самые строгие правила в мире

Китайский подход можно назвать противоположным американскому. Проект «Временных мер по управлению сервисами антропоморфного взаимодействия на базе ИИ» опубликован в декабре 2025 года, новые правила планируется ввести в течение этого года. Они предусматривают запрет на формирование психологической зависимости, введение в заблуждение и поощрение суицида. При выявлении у пользователя суицидальных намерений нейросеть должна передать диалог человеку. Непрерывно общаться с нейросетью допускается не более двух часов, после чего сервис должен приостановить общение с пользователем.

Правила нацелены на то, чтобы ИИ не нарушал общественный порядок и не подрывал «основные социалистические ценности» Китая. При этом цифровые помощники должны проходить обязательную государственную регистрацию, что фактически является элементом цензуры, так как за несоответствие стандартам грозит отзыв лицензии. Однако вряд ли стоит считать цензуру априори чем-то негативным. Помешает она развитию технологии или нет, вопрос дискуссионный, но разве нужно такое развитие, которое подрывает основы государства?

Евросоюз: закон есть, но нет механизмов ответственности

В Евросоюзе закон об ИИ вступил в силу еще в августе 2024 года. Он запрещает системы с неприемлемым риском (например, прогнозирование поведения человека на основе анализа социальных данных, манипулятивные техники), вводит строгие требования к «высокорисковым» приложениям и обязывает маркировать генеративный контент. Меры контроля планируется вводить постепенно. При этом в содружестве до сих пор нет подзаконных актов и понятных правил ответственности, поэтому закон толком не работает.

Еврокомиссия также отозвала предложения по регулированию лицензирования в сфере ИИ и ответственности за вред, который может нанести применение технологии. Поскольку это решение произошло после отмены правил регулирования в США, то было и предположение о связи этих двух событий. В Брюсселе отвергли эту версию и назвали причиной отказа от инициативы, отсутствие согласия среди государств-членов ЕС. В итоге получилась интересная юридическая конструкция без механизмов запуска.

Южная Корея: прозрачность и стимулирование развития

В Южной Корее закон об ИИ вступил в силу в январе 2026 года — это, пожалуй, самый сбалансированный на сегодня документ. Он тоже использует риск-ориентированный подход и требует прозрачности: обязательно заранее уведомлять пользователя об общении с ИИ и маркировать синтезированный контент невидимыми водяными знаками. Авторы закона попытались создать понятные правила игры, не загоняя бизнес в угол. Он стимулирует инновации, одновременно встраивая в них базовые предохранители.

Подход основан на «гибком регулировании с упором на содействие, а не на ограничения», что должно поддержать амбициозную цель страны — войти в тройку мировых лидеров по ИИ. Закон считают сбалансированным. Он делает Южную Корею второй в мире юрисдикцией после ЕС, принявшей комплексный закон об ИИ, и первой страной, принявшей национальный закон в этой сфере. При этом механизмы реального контроля и аудита еще предстоит разработать, и есть риск, что прозрачность останется лишь формальностью.

Россия: в поиске сбалансированного подхода

Предложенный в России законопроект ближе всего к тому, что действует в Южной Корее. Также видна попытка нащупать баланс между безопасностью и стимулированием развития. Кроме того, в российском варианте прописано право граждан требовать при получении услуг общения с человеком и обжаловать решения, принятые ИИ, а также право на возмещение ущерба, что представляется очень важным.

Операторов, предоставляющих нейросети, предлагается обязать маркировать нейроконтент, обеспечивать его безопасность и следить за тем, чтобы продукты генерации не разрушали традиционные ценности. Минцифры поддержало идею признать использование ИИ в преступлениях отягчающим обстоятельством. При этом разрешается обучение нейросетей с помощью купленных книг, картин или программ, без каких-либо обязательств перед собственниками авторского или патентного права. Контент от ботов предлагается охранять, как объекты интеллектуальной собственности, если он создан в результате творческого труда человека, а ИИ-сервис применялся, как вспомогательный инструмент.

Лакуны в законах об ИИ

При сильно отличающихся подходах в разных странах есть и то, что объединяет все эти меры. Они не отвечают на ряд важных вопросов, без решения которых регулирование может остаться лишь декларацией.

Во-первых, это вопрос об ответственности. К нему подход остается в рамках традиционных правовых норм, в то время, как ситуация принципиально новая. Если беспилотный автомобиль попадет в аварию, кто будет отвечать: владелец, производитель или разработчик программного обеспечения? Фактически ИИ — это «черный ящик», действия которого зависят и от «обучения», и от промпта, и от выбора варианта из множества других, который зависит от ряда случайных факторов, например от количества одновременно поступающих запросов.

Одно можно сказать однозначно — основное бремя ответственности должно лежать на тех, кто получает выгоду, например, оператор, предоставляющий услуги пользования нейросетью, или производитель ПО с технологией искусственного интеллекта. Их можно обязать делать отчисления в специальный фонд, из которого будут выплачивать компенсации за ущерб.

Вторая лакуна в законах и законопроектах об ИИ заключается в отсутствии правил аудита. Можно кого угодно обязать обеспечить безопасность, но без указания, как именно это измерить, ответственность будет оставаться фикцией. Представьте, что ПДД содержали бы только фразу «водитель должен ездить безопасно», но не указывали бы скорость, разметку или процедуру техосмотра.

И как проверять безопасность нейросетей, если каждый разработчик тестирует их как хочет? Как в суде определять, кто виноват, например, если ИИ-агент по отбору персонала придет к решению отсеивать анкеты от женщин? Истец заявит, что его экспертиза показала наличие дискриминации, а ответчик, ссылаясь на свою экспертизу будет утверждать, что всё в порядке. Судья не поймет, кто прав без эталонного метода измерения.

Кроме того, пока не решен вопрос с прозрачностью. Взять тот же пример с нежеланием бота рассматривать анкеты женщин. Как установить, кто в этом виноват, как объяснить причину принятого решения, если нейросеть приняла его, опираясь на миллиарды параметров? Но без этого не получится следить за соблюдением права граждан на то, чтобы ими не манипулировали с помощью нейросетей.

Отдельный вопрос с использованием ИИ в вопросах государственной безопасности. Почти все законы содержат исключения для национальной безопасности и правоохранительных органов. Но без четкого ограничения эти исключения становятся лазейкой для бесконтрольного использования систем распознавания лиц и профилирования. Это приводит к тому, что люди, скажем так, неидеальные получают доступ к широчайшим возможностям по слежке за людьми, но при этом не находятся под контролем.

Также стоит упомянуть риск нейрозависимости, так как это важный вызов. Современные языковые модели способны имитировать эмпатию настолько убедительно, что человек, особенно одинокий или уязвимый, вступает в эмоциональную связь с алгоритмом. Китайский закон прямо запрещает создавать эмоциональные ловушки, но в законах других стран этот риск даже не упомянут. И требование предупреждать человека, что он общается с ИИ, недостаточно. Мелкий шрифт никто не читает, а при длительном диалоге человек забывает, что перед ним программа. Тут нужны активные напоминания, например, как планируют внедрять в Китае.

Табу для ботов

И, наконец, должны быть определены сферы, куда ИИ допускать категорически нельзя. Это точно касается образования и воспитания детей.

Использование нейросетей в школах и вузах грозит тем, что и так проблемное образование станет бессмысленным и даже приведет к деградации поколений. Исследование Microsoft и Университета Карнеги-Меллона, опубликованное в прошлом году, показало, что чрезмерное доверие к ИИ-помощникам ведет к когнитивной лени, когда студенты просто поручают задачи внешнему инструменту, не тренируя собственный мозг. России проблема тоже коснулась: по данным «Антиплагиата», доля студенческих работ с признаками ИИ-генерации выросла с 5,3% в 2023 году до 25% в 2025-м, а опрос РАНХиГС показал, что почти половина студентов используют нейросети для прямого списывания.

Да, нейросети можно использовать грамотно, так, чтобы они помогали в обучении, но пока не было случаев прорыва в обучении, достигнутых за счет применения ботов. Зато риски колоссальны. Заявления, что обучение технологии нужно, чтобы не отставать в этой сфере, сомнительны. Взрослый человек легко может научиться перекладывать часть задач на помощника, в том числе на цифрового. А прорывы в сфере ИИ в первую очередь связаны с их разработкой.

В марте рабочая группа Совета Федерации РФ предложила обязать студентов указывать долю участия ИИ и установить допустимый порог в 30%. Непонятно, как это проверять и зачем вообще «легализовывать» такое списывание. Если никак не получается запретить использовать цифровых помощников, нужно разработать системный подход, который сделает бесполезным подглядывание ответов.

В Китае, например, в прошлом году во время национальных экзаменов власти заставили техногигантов временно отключить функции генерации ответов. В США на уровне штата Южная Каролина, рассматривается закон, требующий письменного согласия родителей на любое использование ИИ ребенком и прямо запрещающий замену учителя алгоритмом.

Кроме того, нельзя забывать про риски от игрушек с ИИ, так как это большой соблазн передать воспитание ребенка боту. Как с этим бороться, пока не придумали. Комиссия по безопасности потребительских товаров США в феврале 2026 года фактически устранилась от проблемы, заявив, что ее задача отслеживать только физические травмы, а не психологические. Отдельные американские штаты начали действовать самостоятельно. В Калифорнии внесен законопроект о четырехлетнем моратории на продажу любых игрушек с «компаньон-чатботами» для детей. В Мэриленде закон требует предварительной оценки безопасности, прямого запрета на маркетинг игрушек, как «эмоциональных компаньонов»

Есть и другие последствия от использования ИИ-«друзей». Исследование U.S. PIRG показало, что некоторые «умные» игрушки способны вести с детьми беседы на откровенные сексуальные темы и давать советы, где найти спички или ножи. Боты записывают разговоры, собирают биометрию и зачастую используют те же самые языковые модели, что и взрослые чат-боты, без каких-либо фильтров.

Власти Китая требуют обязательного «детского режима» для игрушек с ИИ, с напоминаниями о реальности и родительским контролем. Но зачем вообще разрешать такие развлечения, которые грозят отупением детей? Рынок ИИ-игрушек оценивается в десятки миллиардов долларов, и тут уже есть свое лобби. Только дети — это без преувеличения будущее страны.

России в этом вопросе нельзя ждать, пока накопится статистика вреда. Негативное воздействие на детскую психику, как и в случае с гаджетами, станет очевидным постфактум, когда корректировать развитие целого поколения будет поздно. Необходимо уже сейчас принимать меры. И тут уже никак не объяснить, что общение детей с цифровыми «друзьями» нужно для развития ИИ или чего-то подобного. Это просто получение прибыли для отдельных бизнесменов, которой можно пожертвовать ради будущего страны.

Да, запрет давать детям играть с ботами не искоренит проблему, многое будет зависеть от родителей. Но действуют же запреты продавать несовершеннолетним алкоголь и табак, хотя это не 100-процентная мера. Ограничения в этой сфере — самый простой шаг, который необходим, пусть и недостаточен. И эта мера очень знакома чиновникам. В последнее время пошел вал запретов, порой вызывающих недоумение, но оградить детей от негативного цифрового влияния точно нужно.

Что нужно России?

Проект закона, представленный Минцифры, — это правильная и своевременная мера. Но он явно требует доработок. Мировой опыт показывает, что самая большая опасность кроется не в тексте закона, а в том, что осталось за его скобками: в отсутствии стандартов аудита, в нерегулируемой ответственности за вред от нейросетей и в полном игнорировании таких уязвимых сфер, как образование и детские игрушки.

Если мы хотим, чтобы регулирование ИИ в России не стало повторением бюрократической карусели ЕС или безответственной гонкой с США, к обсуждению проекта нужно подойти не как к формальности, а как к возможности вшить в закон механизмы, которые будут реально работать. И начинать нужно с защиты тех, кто не может защитить себя сам. Дети — это не просто «пользователи». Это граждане будущего, чье мышление и психика формируются сегодня, в том числе под воздействием алгоритмов.

Комментарии
Загружаются...