Все о пенсиях в России

два дня назадВ России скорректировали систему выплат военных пенсий

21.05.2025Депутат Буцкая не поддержала идею отмены пенсий для бездетных россиян

21.05.2025Депутаты Госдумы одобрили поправки в закон о пенсионном обеспечении

В России могут запретить искусственный интеллект с «неприемлемым уровнем риска»

11.04.2025 08:58

Автор: Максим Крюков

В России могут запретить искусственный интеллект с «неприемлемым уровнем риска»
  © freepik.com

Профильная рабочая группа, куда входят юристы, представители консалтинговых компаний и участников рынка, развивающих искусственный интеллект, а также депутаты, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России», предусматривающий запрет систем с «неприемлемым уровнем риска». Об этом 11 апреля сообщает РБК со ссылкой на пять источников, знакомых с инициативой.

Документ подготовлен для реализации Национальной стратегии развития ИИ до 2030 года, которую утвердили в феврале прошлого года, и обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.

Законопроектом предлагается ввести понятия искусственного интеллекта, технологий ИИ, а также систем ИИ.

Искусственный интеллект как отягчающее

Кроме того, инициатива предусматривает классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Так, разработку и эксплуатацию систем ИИ, которые относятся к первой категории, то есть создают угрозу безопасности личности, общества и государства, а также нарушают основополагающие права и свободы человека и гражданина, предлагается запретить. Для второй категории систем ИИ (применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) хотят установить обязательную госрегистрацию и сертификацию, а для третьей категории (системы внутреннего контроля качества) — добровольную сертификацию.

Также сообщается, что законопроект предполагает введение ответственности за причинение вреда жизни, здоровью или имуществу для лиц, которые принимают участие в разработке и эксплуатации систем ИИ. При этом, согласно инициативе, разработчик не будет нести ответственность, если принял все необходимые меры для предотвращения причинения вреда, если вред возник из-за нарушения правил эксплуатации системы и в нескольких других исключениях; оператора систем ИИ, в свою очередь, освободят от ответственности, если он сможет доказать, что вред возник по вине разработчика в результате нарушения пользователем правил использования системы. Документ также предусматривает обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.

Отмечается, что в случае принятия законопроекта в текущем виде операторы и разработчики систем ИИ должны будут выполнить его требования в течение года после его вступления в силу; системы ИИ с высоким уровнем риска, созданные до принятия документа, должны будут пройти обязательную сертификацию в течение двух лет.

В разговоре с РБК зампред Комитета Госдумы по информационной политике, информационным технологиям и связи, член рабочей группы по ИИ в палате Андрей Свинцов заявил, что в настоящее время законодательные инициативы в сфере ИИ «всерьез не рассматриваются» депутатами. По его словам, рабочая группа создана для того, чтобы проработать и внимательно, детально изучить все запросы от различных отраслей.

Читайте также:

• «Цифровая евгеника» как новый этап селекции «совершенного» человека, соответствующего эпохе доминирования ИИ • Искусственный интеллект подключают к борьбе с беспилотниками • В Минздраве рассказали, какие болезни вылечат с помощью искусственного интеллекта