Бокова оценила перспективы искусственного интеллекта в России
Для развития применения искусственного интеллекта (ИИ) в Российской Федерации необходимо на уровне законов разработать не только регулирование сферы, но и соответствующие стандарты. Об этом заявила проректор Академии социального управления Людмила Бокова в пресс-центре «Парламентской газеты».
Она напомнила, что основные задачи по развитию ИИ заложены в национальной стратегии, принятой указом Президента России. Там указаны основные понятия и параметры, принципы и задачи.
«Если говорить о дальнейшем развитии, то нормативное регулирование должно идти на первом месте. Действительно, после экспериментальных режимов, которые проводят сегодня, (будет. — Прим. ред.) необходимо четко понимать правовую природу и применение технологий в различных областях», — сказала Бокова.
С 1 июля 2020 года в Москве проводится эксперимент по установлению специального правового регулирования в целях создания необходимых условий для разработки и внедрения технологий ИИ, а также последующего использования результатов их применения. Срок проведения эксперимента — пять лет. Установлен порядок его проведения, а также последующего использования результатов применения ИИ.
«Я бы в законодательной плоскости сосредоточилась на принятии таких нормативных правовых актов, как стандарты. Они необходимы, они как раз создают интероперабельность — взаимодействие технологий между собой — и, соответственно, основу безопасного использования», — отметила эксперт.
По ее словам, сегодня уже существуют такие нормы, например в области клинической медицины, в образовании; остальные, в том числе в промышленности, находятся в разработке.
«Я думаю, что сообщество, производители и разработчики действительно ждут эти стандарты, чтобы задавать параметры использования технологиями. Как только они будут созданы, можно будет понимать с точки зрения безопасного их использования и применения в секторах, для которых принимался закон о правовом режиме», — заключила Людмила Бокова.
Читайте также:
• Артем Шейкин: Мы до сих пор не знаем, кто будет отвечать за ошибки искусственного интеллекта