ИИ посконный и домотканый: рынок оценил законопроект о суверенных моделях

Версия для печати

Минцифры 18 марта опубликовало проект закона "Об основах государственного регулирования сфер применения технологий ИИ в Российской Федерации", который вводит понятия суверенной, национальной и доверенной моделей ИИ и предписывает разрабатывать и обучать модели на территории России.

Искусственный интеллект визуализация аи ии
Фото: Freepik / freepik.com

Как пишет Forbes, участники IT-отрасли считают, что это закрепляет приоритет максимально отечественных решений, что может обернуться потерей эффективности, если российская разработка существенно уступает качеству решений, созданных на базе иностранных открытых технологий. Нормы о маркировке, ответственности разработчиков и требования к данным для обучения моделей вызывают вопросы у бизнеса.

Основные положения законопроекта

Документ содержит 21 статью, предполагает вступление в силу с 1 сентября 2027 года и носит рамочный характер – детали будут прописаны в подзаконных актах. Один из важнейших принципов регулирования – уважение "традиционных российских духовно-нравственных ценностей". Законопроект вводит понятия суверенной, национальной и доверенной моделей ИИ. Суверенные и национальные модели предполагают участие только граждан России и российских юрлиц во всех стадиях разработки, обучения и эксплуатации, а также обучение на наборах данных, сформированных россиянами и российскими юрлицами на территории страны.

Доверенные модели должны подтверждать соответствие требованиям безопасности и качества, установленным Банком России, федеральными органами исполнительной власти и госкорпорациями, а обработка данных должна вестись только на территории России. Нейросети из реестра доверенных моделей можно будет использовать в государственных информационных системах и на объектах критической инфраструктуры.

Граждан обязаны информировать о продаже товара или оказании услуги с применением ИИ, они могут отказаться от нее и имеют право на компенсацию вреда, причиненного неправомерным использованием ИИ-технологий. Разработчики, операторы и владельцы нейросетей несут ответственность за результат работы ИИ, нарушающий закон, если они знали о возможности такого результата заранее. Сбор данных для обучения моделей легализован: извлечение информации из защищенных объектов для создания датасетов не будет являться нарушением авторских прав.

Кто лоббировал законопроект

Законопроект лоббировал "Сбер", сообщали Forbes ранее источники в нескольких компаниях интернет- и IT-индустрии. "Законодательную инициативу, которая будет защищать интересы отечественных систем ИИ, поддерживал "Сбер", для чего его глава Герман Греф лично встречался с Владимиром Путиным", – говорит источник на IT-рынке. Среди компаний, у которых были возражения, он назвал "Яндекс".

У "Сбера" своя большая языковая модель GigaChat с полным циклом разработки, своей архитектурой, работающее на его основе семейство моделей и ИИ-агентов. "Модель у "Сбера" полностью российская, буквально "от болтов и гаек"", – рассказывал ранее первый зампред "Сбера" Александр Ведяхин.

Мнение бизнеса: еще не финал

Инициатива правительства направлена прежде всего на то, чтобы вопрос законодательного закрепления регулирования ИИ находился в зоне ответственности исполнительной власти, настаивает источник в одной из крупных IT-компаний, добавляя, что проект носит предварительный характер и требует дальнейшей доработки. "Публикация на этом этапе – часть процесса, который позволит собрать предложения от профессионального сообщества и доработать документ. Окончательная редакция будет заметно отличаться от текущей версии", – уверен он.

Однако текущая редакция законопроекта – "шаг назад в сравнении с ранее обсуждаемыми редакциями и противоречит самой цели регулирования: ускоренному развитию ИИ в стране", говорит источник в одной из российских интернет-компаний. По его мнению, проект в таком виде добавляет новые обязанности всей ИИ-отрасли: "Обновления и доработки существующих решений станут сложнее, что сделает их нецелесообразными. И это может усложнить процесс создания и развития ИИ-технологий в стране в целом".

Чрезмерная административная нагрузка

Ряд норм вводят чрезмерную административную нагрузку на разработчиков, что впоследствии может сказаться на развитии всей отрасли и отдельных сервисов и решений на основе ИИ, считают в Альянсе в сфере ИИ (объединяет "Сбер", "Яндекс", VK и другие компании). "Например, нужно аккуратно подходить к вопросам маркировки и ответственности разработчиков ИИ и владельцев сервисов, ПО с ИИ", – отмечают в Альянсе.

Некоторые положения в текущей редакции вызывают вопросы у участников рынка, в частности нормы об ответственности разработчиков или требования к данным для обучения моделей, констатирует источник в IT-отрасли: "Последнее технически сложнореализуемо в том виде, в котором сформулировано сейчас".

По мнению руководителя правового отдела Just AI Кирилла Тимченко, перекос в сторону управляемости и технологического суверенитета заметен: это проявляется, в частности, в акценте на "суверенные" и "доверенные" модели, а также в широких полномочиях государства по определению требований к ним. "Такой подход понятен с точки зрения безопасности, но создает риск избыточной централизации рынка и сужения технологического разнообразия. В условиях, когда ключевые критерии допуска к рынку определяются государством, усиливается зависимость отрасли от ограниченного круга решений", – говорит он.

Спор об иностранных и "русских народных" моделях

В сфере ИИ не существует технологий, полностью свободных от open source решений в основе, говорит старший юрист MWS AI (входит в МТС Web Services) Кирилл Дьяков. "Поэтому выбор в пользу максимально отечественного решения в традиционно развитых для России сферах, таких как промышленность, культура, образование или государственные сервисы, может обернуться потерей в эффективности, если российская разработка существенно уступает по качеству решениям, созданным на базе иностранных открытых технологий", – продолжает Дьяков. Практика MWS AI показывает, что большинство крупнейших отечественных компаний – более 95% – изначально внедряют ИИ на собственной инфраструктуре в закрытом контуре, что гарантирует достаточный уровень безопасности.

Кроме того, любое обязательное подтверждение соответствия моделей требованиям "русского народного" ИИ должно предусматривать четко установленные процедуры, критерии и сроки, а также вводиться поэтапно, указывает юрист. "В противном случае мы рискуем столкнуться с остановкой действующих сервисов, что может привести к значительному недополучению финансового эффекта в ключевых отраслях экономики", – делает вывод Дьяков. "Это может быть очень чувствительным на фоне нехватки человеческих и других ресурсов".

Ответственность и сертификация

Статья 11 законопроекта вводит презумпцию виновности разработчика, но на практике в промышленности ИИ-решения редко работают "как коробка" – их дорабатывают интеграторы под конкретное производство, обучают на данных конкретного завода, отмечает генеральный директор ГК "Ультиматек" Павел Растопшин. "Где заканчивается ответственность разработчика и начинается ответственность интегратора или самого предприятия-владельца? Это требует уточнения", – указывает он.

Идея сертификации ИИ-систем для критической информационной инфраструктуры понятна, но в законопроекте не прописано, как именно сертифицировать нейросетевые модели, продолжает Растопшин. Существуют так называемые строгие модели – они работают на математических уравнениях, их поведение предсказуемо. Но современные нейросети, особенно те, что используются для прогнозирования состояния оборудования или оптимизации производственных процессов – это "черные ящики". Их решения необъяснимы, а ошибки непредсказуемы. "Законопроект эту проблему обходит стороной. Он устанавливает требование сертификации, но не говорит, как ее проводить для разных типов моделей", – заключает эксперт.

Влияние на стартапы и бизнес

Интересно прежде всего, как законопроект может повлиять на три сферы: стартапы и венчурная индустрия, средний и крупный бизнес, а также пользователи, считает советник практики защиты данных Denuo Илья Булгаков. К счастью для стартапов и крупного бизнеса, пока законопроект не предполагает внесение изменений в КоАП, вводящих оборотные штрафы за его нарушение (как это было предусмотрено в EU AI Act). "Стартапам не грозят непомерные финансовые риски, связанные с развитием своего продукта, и это позитивный сигнал. Что касается крупного бизнеса, то, на первый взгляд, законопроект вводит умеренный уровень комплаенса, который не должен сильно тормозить развитие ИИ в России", – говорит Булгаков. Для пользователей регулирование выглядит не слишком ограничивающим и в основном содержит декларативные нормы.

Государственная политика в сфере ИИ

Государственная политика России в области ИИ в 2025-2026 годах проходит этап активного институционального строительства и формирования комплексной системы управления, указывают в Т1. До 2030 года планируется выделить более 70 млрд рублей на развитие ИИ в России. На льготное кредитование строительства центров обработки данных власти намерены направить 32,1 млрд рублей в 2025-2030 годах. Согласно планам правительства, к 2036 году в стране должно появиться восемь новых дата-центров.

Согласно совместному исследованию АБД, Б1 и TAdviser, по итогам 2025 года российский рынок Big Data и ИИ может составить 520 млрд рублей. Среднегодовой темп роста рынка больших данных в ближайшие пять лет может составить 20%.

Подробнее о госрегулировании ИИ: Минцифры представило проект закона о госрегулировании искусственного интеллекта

Форбс

Показать больше