Дикторы попросили защитить их голоса от искусственного интеллекта
Технологии не только лишают работы профессиональных чтецов, но и могут подвести под статью любого человека
С помощью искусственного интеллекта можно без труда синтезировать голос любого человека, хоть живого, хоть мертвого. Это уже обернулось рядом проблем: недобросовестные компании воруют голоса известных дикторов, а мошенники звонят жертвам от имени их близких. Как защитить то, что еще недавно считалось неотъемлемой частью каждого из нас, разбиралась «Парламентская газета».
Ваш или не ваш?
Голос профессионального диктора Алены Андроновой слышат клиенты крупного российского банка, когда звонят в его call-центр. Абонентам даже может показаться, что с ними разговаривает настоящий живой человек, настолько чисто и правильно робот, используя заранее записанные словесные конструкции, строит диалог. Чтобы технология так работала, диктор начитывала фразы в течение нескольких часов и передала право на использование этих записей банку. «Каково же было мое удивление, когда вскоре мне стали сообщать, что мой голос предваряет порнографические ролики в интернете и рекламирует онлайн-казино», — рассказала Алена Андронова 10 октября на заседании секции по искусственному интеллекту Совета по развитию цифровой экономики при Совете Федерации.
Пострадавших от умных технологий уже немало, признал зампред «цифрового» совета, сенатор Артем Шейкин. Законодательное регулирование в этом вопросе, по его словам, отстало от реального положения дел. Даже принятый в России Кодекс этики искусственного интеллекта, хотя и существует в формате общественного договора, а не закона, темы синтеза голоса не касается. А ведь голоса используют не только в рекламных, но и в откровенно преступных целях: мошенники звонят людям голосами их близких, и это может завести очень далеко.
Нематериальное благо
На круглом столе сенаторы и эксперты обменялись мнениями о направлениях законодательного регулирования синтеза голосов. Начали с того, что понятия «синтезированного голоса» в российских законах нет. И вообще, голос каждого человека слабо отражен в нормативных документах, тогда как, по мнению доцента кафедры гражданско-правовых дисциплин РАНХиГС Тамары Богдановой, он обладает всеми признаками нематериального блага, то есть принадлежит человеку по праву рождения и не может быть отчужден, так же как, например, жизнь и здоровье, личная неприкосновенность, деловая репутация и другое.
Нематериальные блага защищает Гражданский кодекс, где есть и статья о защите внешнего облика и изображения человека. Их нельзя использовать без разрешения обладателя. Богданова считает необходимым распространить эти положения и на голос. До сих пор этого не сделали лишь потому, что не было технологий подделки речи.
Голос человека относится к биометрическим данным и по решению его обладателя может быть занесен в государственную Единую биометрическую систему. Охрану данных оттуда следует усилить, сказала Тамара Богданова, а также определить характеристики каждого голоса — высоту, тембр и так далее.
Что касается произведений с использованием синтезированного голоса, то ответственность за них должны нести те, кто создает и использует такие произведения. Но никак не обладатель голоса, даже если будет доказано, что он когда-то начитал определенные фразы. Поэтому компаниям, которые занимаются синтезом, хотят вменить в обязанность хранить метаданные, то есть исходные записи, которые сделал диктор, заключила доцент.
ИИ не пройдет незамеченным
Искусственный интеллект лишает дикторов работы, но при этом они не выступают за запрет технологий как таковых, сказал председатель правления Союза дикторов Александр Лапшин. «Технология отнимает многовековую школу и наш заработок, наши голоса скупают, пользуясь правом отчуждения и возможностью использовать записанный голос третьими лицами, — сказал Лапшин. — Мы предлагаем исключить право отчуждения голоса и ввести лицензирование каждого проекта, чтобы обозначить рамки дозволенного использования записей».
Отдельный вопрос — использование голосов умерших людей. Компании успешно воссоздают голоса актеров прошлого, давно ушедшие кумиры даже озвучивают фильмы со своим участием, где изображение тоже генерирует искусственный интеллект. На круглом столе обсуждали необходимость одобрения таких экспериментов родственниками умерших, а также возможность людей указывать в завещании, кто и как может использовать их голоса и образы после смерти.
Необходимо отделить контент, созданный человеком и искусственным интеллектом, для этого следует ввести маркировку продуктов ИИ, сказал сенатор Александр Шендерюк-Жидков. Это уже есть в Китае, а с 2025 года должно заработать в Европе. России, уверен он, нельзя отставать. При любом взаимодействии с роботом человека должны об этом предупреждать — голосовым сообщением, если он звонит в банк, либо текстовой плашкой, если смотрит фильм, созданный искусственным интеллектом.
Читайте также:
• Искусственному интеллекту не позволят делить россиян на хороших и плохих
Ещё материалы: Артем Шейкин , Александр Шендерюк-Жидков