В России возьмут под контроль разработчиков искусственного интеллекта
А для самого ИИ в ближайшие два-три года напишут Цифровой кодекс
В России уже в ближайшие годы появится Цифровой кодекс — отдельный свод законов, норм и правил, которые будут регулировать искусственный интеллект. В нем планируют написать и про ответственность разработчиков ИИ, разработать классификацию умных цифровых систем на опасные и безопасные и закрепить маркировку контента, сгенерированного нейросетями. Новым «цифровым» законам был посвящен круглый стол «Какие правила должны быть закреплены для использования искусственного интеллекта в России?», состоявшийся в пресс-центре «Парламентской газеты».
Кто такой интеллект?
Сегодня интеллектуальные цифровые системы в России применяются не слишком широко. Однако влияние их растет: так, по словам одного из ключевых экспертов в области информационных технологий и искусственного интеллекта Игоря Ашманова, уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.
«Искусственный интеллект сейчас пытаются внедрить везде, — отметил Ашманов. — Простой пример: уже сегодня существуют «умные камеры», которые используются в том числе для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов. Правовой статус распознавания лиц никак не определен. Для понимания: даже гаишник, выходящий на дорогу с радаром, должен его предварительно поверить, опечатать и так далее. С этими же системами нет ничего подобного».
Между тем развивается ИИ чудовищными темпами. Как отметил директор Национального центра развития искусственного интеллекта при Правительстве Сергей Наквасин, сейчас страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни: «Если сегодня, по нашим данным, применение ИИ в различных отраслях колеблется от 5 до 20 процентов, то уже в ближайшие два-три года средний уровень внедрения вырастет до 50 процентов. Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьезными проблемами».
И если с разработкой и внедрением ИИ у нас в целом все ладится, то в этой сфере Россия только в самом начале пути. Так, по словам Наквасина, у нас пока что нет даже терминологической базы — нигде не зафиксировано четкое определение самого искусственного интеллекта и многочисленных дополнительных понятий, которые с ним связаны. Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и так далее.
Защитить ИИ от людей, а людей — от ИИ
Благо, такая работа ведется — и как раз в два-три года она и должна уложиться, уверена первый заместитель председателя Комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. «Хотя, на мой взгляд, у нас нет так много времени, — отметила сенатор. — Нам нужно работать гораздо быстрее. Сейчас и в Совете Федерации, и в Государственной Думе действует огромный пул экспертов, с которыми мы постоянно находимся на связи. Часть законопроектов уже готова, они находятся в стадии доработки. По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом».
Параллельно с этим, по словам Рукавишниковой, нужно работать точечно: дополнять и расширять нормативные акты, которые уже существуют и так или иначе касаются цифрового благополучия страны. «Начнем мы, я думаю, с ответственности разработчиков искусственного интеллекта, — подчеркнула сенатор. — Пока что эта сфера у нас не охвачена — на разработчиков ИИ, например, не распространяются требования, которые мы ввели для операторов систем сбора персональных данных, СМИ и социальных сетей. Вот здесь как раз никакой новой глобальной структуры не нужно — достаточно включить поправки в уже существующие законы».
Другая форма защиты от ИИ — маркировка контента, который создан с его помощью. Прежде всего это нужно, чтобы снизить угрозу от дипфейков — искусственно сгенерированных фотографий и видеозаписей, которые уже освоили в том числе мошенники, успешно разводящие с их помощью людей на деньги.
За точечный подход выступают и сами разработчики. Так, управляющий директор центра регулирования ИИ Сбербанка Андрей Незнамов привел в пример беспилотные автомобили: «В короткие сроки удалось создать правила их применения, предусмотреть ответственность каждой из возможных сторон, и сейчас вся эта глобальная сфера полностью урегулирована. Искусственный интеллект сейчас внедряется повсюду — это правда. Но в каждой сфере общественной, политической и экономической жизни у нас уже существуют конкретные и давно установленные нормы и правила. И многие из них могут применяться и к системам ИИ — возможно, с какими-то небольшими точечными корректировками».
Участники обсуждения напомнили также, что концепция развития искусственного интеллекта в России существует уже несколько лет. Однако сейчас в связи со стремительным развитием технологий работу по ее реализации нужно серьезно ускорить.
Читайте также:
Ещё материалы: Ирина Рукавишникова