Украденная личность: МВД предлагает считать дипфейки отягчающим обстоятельством
За подделку внешности и голоса в предвыборной агитации уже могут оштрафовать
Искусственный интеллект позволяет создавать генеративный контент — видео, аудио и тексты, похожие на настоящие записи. Уже сегодня дипфейки используют для манипулирования политическими процессами и обществом, создания фальшивых новостей, мошенничества. В Китае недавно украли 76 миллионов долларов при помощи специальных компьютерных программ для подделки внешности. Так как явление быстро развивается и его трудно контролировать, государство намерено объединить усилия с компаниями, чтобы противостоять новому типу недостоверной информации. Нужны технологии, которые позволят любому человеку максимально просто при помощи камеры мобильника выявлять дипфейки, заявил зампредседателя Комитета Государственной Думы по информационной политике Антон Горелкин на XII Петербургском международном юридическом форуме.
Навел смартфон — и все понял
Несмотря на введение в Китае в 2022 году жесткого регулирования в области искусственного интеллекта, мошенникам удалось украсть 76 миллионов долларов с помощью технологии «дипфейк», напомнил Антон Горелкин. «Я это к тому, что те меры, которые сегодня обсуждаются, не в полной мере отвечают запросу. Потому что та же маркировка контента — это не панацея, она не решает абсолютно ничего, потому что законопослушные игроки индустрии и так маркируют свои продукты, а мошенники этого делать никогда не будут», — уточнил депутат.
У сложных проблем не бывает простых решений, поэтому парламентарий считает важным сосредоточиться на ответственности: «В МВД разрабатывают законопроект, чтобы сделать дипфейки отягчающим обстоятельством. И это правильное направление. Я уверен, что в ближайшее время так или иначе будет какая-то регуляторика. Но нам важна не регуляторика ради регуляторики, а надо искать действительно эффективные механизмы. И самая актуальная проблема — это, конечно, голосовые сообщения и видео. Сложность в том, что обычный человек уже не может отличить сгенерированный контент от настоящего».
Существующие инструкции для выявления подделки — обращать внимание на количество пальцев, на подергивание лица, чистоту моргания, по словам депутата, уже не работают, так как нейросети учатся на своих ошибках. В борьбе с дипфейками поможет постоянное улучшение моделей и систем для распознавания и верификации контента. «Людям нужен доступный инструмент для быстрой проверки происхождения контента и чтобы это работало максимально удобно: камеру смартфона навел, получил вердикт — это продукт нейросети или реальное изображение. Хотелось бы, чтобы было у нас больше вот таких проектов, и я считаю, что государство сейчас должно сконцентрироваться на решении этой задачи», — пояснил Горелкин.
Создать такой инструмент, по мнению депутата, возможно, объединив все лучшие проекты распознавания дипфейков от российских разработчиков, которые сегодня есть, в том числе силовиков и Роскомнадзора. «Нам важно сделать так, чтобы люди себя ощущали и чувствовали более защищенными. Опять же, если мы говорим о какой-то регуляторике дипфейков, то без такого инструмента нам не обойтись», — подчеркнул парламентарий.
Горелкин отметил, что с каждым годом технологии будут упрощаться и становиться доступнее, «поэтому здесь нужно сосредотачиваться не только на регуляторике, но и на технологии, на инфраструктуре». «Важно, регулируя, не сделать работу наших ответственных компаний и разработчиков сложнее. Нам важно, чтобы в целом генеративные сети российского производства развивались. У нас стоит задача догнать в этом отношении технологических лидеров — Китай и США. Поскольку на этой технологии в целом будут строиться в том числе и военные технологии, и медицинские. На мой взгляд, это гораздо важнее, чем использование этих продуктов в креативных индустриях», — резюмировал депутат.
Мошенников стало больше
Особенность дипфейков в том, что поддельный контент на первый взгляд кажется настоящим, напомнила начальник управления Президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева. «Этим он вводит в заблуждение. Скорость его распространения высокая, высокая степень доверия к увиденному собственными глазами, все это не позволяет человеку успеть задуматься, проанализировать верность контента», — пояснила она суть проблемы.
По оценкам экспертов, за первые неполные три месяца 2024 года в интернете выявили больше видео- и аудиодипфейков, чем за весь 2023 год. При этом по сравнению с 2022-м в прошлом году количество видеодипфейков выросло в три раза, а аудиодипфейков — почти в восемь раз.
«Эксперты фиксируют рост активности мошенников, атакующих россиян с помощью дипфейков. Только за январь 2024 года исследователи насчитали более двух тысяч таких инцидентов. Примерно в 70 процентах случаев злоумышленники пытались с помощью голосовых дипфейков выманивать деньги у граждан, выдавая себя, естественно, за родственников, коллегу, знакомого. В атаках на сотрудников организаций пользовались сгенерированные голосовые сообщения руководителей, при этом обманщики требовали предоставлять интересующую их информацию либо перевести денежные средства», — рассказала Матвеева.
По ее мнению, такое мощное распространение дипфейки получают за счет расширения доступа широкого круга лиц к технологиям искусственного интеллекта и удешевления таких технологий: «Чем дешевле технология, тем более массовое применение дипфейков возможно в нашей жизни. При этом экспертное сообщество прогнозирует еще более широкое распространение дипфейк-контента в ближайшие годы».
На выборах недопустимо
Для воздействия на разные социальные группы дипфейки используют и в избирательных кампаниях. Пока за рубежом. В России к возможным вывихам правосознания в киберсреде подготовились заранее. «Парламентская газета» сообщала со ссылкой на постановление Верховного суда, что возможность использования дипфейков в предвыборной гонке решили ограничить, так как это нарушает требования к агитационным материалам. Высший судебный орган предупредил, что за такие деяния предусмотрена административная ответственность.
Председатель судебного состава Судебной коллегии по административным делам ВС Сергей Кузьмичев 25 июня отметил, что в соответствующее постановление был добавлен пункт, согласно которому ответственность за агитацию с использованием дипфейков предусмотрена частью 1 статьи 5.12 КоАП. Так, за создание агитационных материалов с нарушением законодательства гражданам грозит штраф в размере от 5 до 20 тысяч рублей, для должностных лиц — 30-50 тысяч рублей, а для юридических лиц — 100-500 тысяч. По этой статье наказание ждет как изготовителей таких материалов, так и заказчиков.
По мнению Антона Горелкина, в своем постановлении Верховный суд фактически сформулировал определение дипфейка: «вводящие в заблуждение и выдаваемые за достоверные недостоверные изображения, аудио- и аудиовизуальная информация, в том числе созданные с помощью компьютерных технологий». Оно в будущем может стать основой для законотворческой работы.
До этого член Комитета Совета Федерации по конституционному законодательству и государственному строительству Артем Шейкин предложил ввести в обиход русский аналог слова «дипфейк» и дать ему более точное определение. Это необходимо, например, для работы над законопроектом о защите голоса — речь идет о ситуациях, когда мошенники используют голоса людей, в том числе известных, в своих целях.
Ещё материалы: Антон Горелкин