Системы искусственного интеллекта предложили снабжать маркировкой
Необходимо ввести специальную маркировку для систем искусственного интеллекта, чтобы защитить пользователей от рисков, связанных с его использованием. С таким предложением к главе Минцифры Максуту Шадаеву обратился руководитель рабочей группы Общественной палаты (ОП) РФ по законодательству в сфере интернет-технологий и цифровизации Вадим Виноградов.
Как отметил член ОП, сейчас программы, управляемые искусственным интеллектом (ИИ), «маскируются» среди других цифровых продуктов, — системы ИИ могут быть размещены на любом сайте, любом устройстве, и пользователи не узнают об этом. Носителем технологии может стать любой компьютер или гаджет, включая бортовой компьютер самолета или медицинские приборы.
На сегодня сфера ИИ в России регулируется ограниченным пакетом нормативных-правовых актов, при этом компании не обязаны ставить граждан в известность о том, что коммуникацию с ними ведет не человек, а искусственный интеллект.
При этом искусственный интеллект уже принимает решения по десяткам важных направлений и сфер деятельности человека. Например, при одобрении или отказе в оформлении кредита в банках, расчете стоимости ОСАГО, подборе кадров для крупных компаний, при анализе эффективности работы сотрудников, принятии и рассмотрении жалоб на неудовлетворительную работу в сфере услуг, в частности, водителей агрегаторов такси или курьеров. ИИ уже может диагностировать болезни на основе получаемых параметров здоровья, рентген-снимков и результатов анализов, распознавать лицо человека, а также потенциально опасные предметы и вещества на таможне, идентифицировать личность и многое другое.
Помимо этого, получили распространение и так называемые дипфейки — фото, видео или аудио, созданные посредством обработки фотографий, записей голоса и видео с применением нейросетей. Проверить такой контент на подлинность практически невозможно.
«Все эти случаи требуют маркировки «Искусственный интеллект» для обеспечения права человека на получение достоверной информации», — отметил Виноградов в письме к главе Минцифры, приведенном в Telegram-канале ОП.
По его словам, с учетом изложенного можно констатировать, что назрела острая необходимость обеспечения права людей на получение достоверной информации о потребляемой ими услуге или приобретаемом товаре, то есть в специальной маркировке интеллектуальной системы.
В России уже начали делать первые шаги в данном направлении, отметил член ОП. Так, Министерство юстиции предложило внести в Госдуму законопроект, который обяжет банки, коллекторские компании и микрофинансовые организации ввести аудиомаркировку искусственного интеллекта. Благодаря этому потребители смогут понимать, говорят они с реальным сотрудником или с роботизированной системой.
«При этом общая маркировка систем искусственного интеллекта не должна повлечь существенных финансовых и материальных расходов как со стороны государства, так и бизнеса. Достаточно разработать общепризнанный графический знак ИИ, по аналогии с О — знаком охраны авторского права», — считает Виноградов.
Подобным знаком можно было бы маркировать тексты, написанные алгоритмами, сгенерированные фото и видео, беспилотные автомобили и т. д. Если графическая маркировка невозможна, например, в случае автоматического аудиосообщения от робота или телефонного разговора робота и человека, необходимо использование аудиомаркировки в виде короткого сообщения в начале и (или) конце разговора о том, что он происходит с ИИ, добавил член ОП.
Он предложил создать профильную рабочую группу при Минцифры, которая займется вопросами развития ИИ. В рамках потенциальной деятельности этой рабочей группы можно было бы провести работу в трех различных направлениях, полагает он. Во-первых, разработать графический знак маркировки искусственного интеллекта, а также единый стандарт аудиомаркировки искусственного интеллекта. Во-вторых, провести работу по определению параметров по закреплению обязательной маркировки товаров и услуг, использующих технологии ИИ, а также созданных им, в рамках федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика». Кроме того, можно было бы инициировать внесение проекта соответствующего постановления на рассмотрение Правительства.
В-третьих, Виноградов предложил разработать проекты нормативно-правовых актов, регулирующих распределение ответственности за неверно принятые искусственным интеллектом решения между разработчиками алгоритмов и собственниками технологий, а также проекты законодательных актов по оспариванию потребителями решений, принятых ИИ.
Читайте также:
• Горелкин рассказал о сложности рекомендательных алгоритмов многих сервисов • Хинштейн: Разработчики искусственного интеллекта не смогут завладеть данными россиян
Ещё материалы: Максут Шадаев