Профильная рабочая группа разработала проект законодательного регулирования искусственного интеллекта в РФ, рассказали РБК 5 источников, знакомых с инициативой. В группу входят юристы, представители консалтинговых компаний и участников рынка, развивающих ИИ, указали они. Инициатива оформлена в виде законопроекта «О регулировании систем искусственного интеллекта (ИИ) в РФ» (копия есть у РБК, ее подлинность удостоверили 2 источника РБК на IT-рынке). Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой РФ», а также на отраслевых дискуссионных площадках, отметили собеседники РБК.
В пояснительной записке к проекту отмечается, что он разработан для реализации Национальной стратегии развития ИИ до 2030 года (была утверждена в феврале 2024 года).
Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме Андрей Свинцов говорит, что сегодня по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ».
По его словам, законодательные инициативы пока депутатами «всерьез не рассматриваются». «Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — пояснил он. По словам Свинцова, в ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», но законопроекта, который зарегулирует всю деятельность ИИ, в этом году он не ожидает. Среди тех сфер, которые отрегулируют в первую очередь, депутат назвал маркировку. Но законопроекта в готовой редакции в Госдуме пока нет, подчеркнул он.
Представители аппарата правительства и Минцифры говорят, что к ним не поступал на рассмотрение такой законопроект. Если поступит, они его рассмотрят.
Если документ будет принят в текущем виде, операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, которые были созданы до принятия проекта, должны будут пройти обязательную сертификацию в течение двух лет.
Источник РБК в одной компании — разработчике ИИ говорит, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Например, в феврале этого года вице-премьер Дмитрий Григоренко говорил, что законодательное регулирование ИИ не планируется в ближайшие 2 года.
«Российские компании внедряют меры по саморегулированию, используют маркировку ИИ-сгенерированного контента и действуют на основе отраслевых стандартов по ответственному развитию технологий искусственного интеллекта, — говорит источник РБК. — Чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли для экономики страны, ограничит возможности и пользу технологий для пользователей и бизнеса, приведет к технологическому отставанию отечественных игроков». Он отметил, что негативное влияние регулирования видно на примере европейских компаний: закон об ИИ в ЕС привел к тому, что лидеры рынка сокращают присутствие в регионе, собственные конкурентоспособные решения не появляются.
Директор по цифровым технологиям «Ростелекома» Роман Хазеев говорит, что на текущий момент еще нигде в мире не было сформировано достаточной законодательной базы и практик для определения ответственности разработчиков нейросетей, границ творчества и факта применения дипфейков. «Может показаться, что законодательные инициативы в этой части находятся в позиции догоняющих. Но это не так: введение регулирующих норм целесообразно только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», — говорит Хазеев, отмечая, что все видят увеличивающиеся случаи применения дипфейков, сталкиваются с трудностью отличить подлинную информацию от выдуманной.
Представители «Яндекса», МТС и VK отказались от комментариев. РБК направил запрос в «Сбер».
В 2024 году Европарламент опубликовал Регламент об искусственном интеллекте (EU AI Act), который охватывает все сферы применения нейросетей. Он запретил использование систем, которые применяют ИИ для подсознательного манипулирования или использования уязвимых мест людей, что может привести к физическому или психологическому ущербу, неизбирательное использование дистанционной биометрической идентификации в реальном времени в общественных местах для обеспечения правопорядка или использование властями «социальных баллов», полученных с помощью ИИ, для несправедливого ущемления прав отдельных лиц или групп. Системы с высокой степенью риска (представляют значительную угрозу здоровью, безопасности или основным правам человека) должны проходить обязательную оценку соответствия перед выпуском на рынок. Также акт ввел требование об обязательной маркировке ИИ-контента для игроков, чьи продукты и сервисы доступны в ЕСе, или для европейцев, находящихся за пределами ЕС. За несоблюдение требования предполагается штраф в размере до €40 млн, или до 7% оборота компании-нарушителя.
Обсуждение введения маркировки ИИ-контента также идет в США, соответствующий проект был представлен в марте 2024-го.
В марте 2025 года Китай утвердил новейшие правила для маркировки контента, сгенерированного нейросетями, мера начнет действовать с 1 сентября. По ним платформы и разработчики должны сообщать, что их сервисы создают контент с помощью нейросетей. В свою очередь, магазины приложений должны проверять, как именно маркируется такой контент. Мера направлена на борьбу с дезинформацией.
В РФ обсуждение введения маркировки ИИ-систем началось еще в 2022 году: с инициативой в адрес Минцифры обратился начальник рабочей группы Общественной палаты РФ по законодательству в сфере интернет-технологий и цифровизации Вадим Виноградов. Он отмечал, что это необходимо для обеспечения права человека на получение достоверной информации. В 2024 году в Госдуме началась разработка концепции закона о маркировке ИИ-контента. «Маркировка должна осуществляться при помощи графических или водяных знаков. Главное, чтобы она была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним, и мог более тщательно его анализировать», — говорил тогда член комитета Госдумы по информполитике Антон Немкин. В феврале этого года Андрей Свинцов вновь призвал ввести обязательную маркировку ИИ-контента.