Все о пенсиях в России

вчераУчастникам СВО хотят сохранить размер пенсионного коэффициента

вчераРоссиянам напомнили о повышении пенсий с 1 января

два дня назадНа индексацию страховых пенсий в 2025 году направят более 700 миллиардов рублей

Алексей Пушков: Полезных дипфейков не бывает

За использование искусственного интеллекта в противоправных целях предложили сажать в тюрьму

16.09.2024 17:54

Автор: Дмитрий Литвинов

Алексей Пушков: Полезных дипфейков не бывает
Алексей Пушков © Пресс-служба Совета Федерации

Использование поддельных, сгенерированных с помощью искусственного интеллекта (ИИ) голоса и изображения человека при совершении преступления будет считаться отягчающим обстоятельством. А за мошенничество с использованием дипфейка можно угодить за решетку. Такие нормы содержит внесенный в Госдуму 16 сентября законопроект. Распознавать дипфейки и опровергать их смогут как сами люди, так и СМИ и соцсети, а искать создателей подделок должна полиция, рассказал «Парламентской газете» соавтор инициативы, председатель Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков.

- Алексей Константинович, зачем потребовался отдельный закон о дипфейках?

- Значительная часть нашей жизни сегодня проходит в социальных сетях, где люди не только общаются, но обмениваются информацией. Если раньше все информационное пространство сводилось к радио, печатной прессе и телевидению, то теперь появилось огромное новое измерение.

Соцсети становятся объектом повышенного внимания не только специалистов по информации, но и специалистов по разным формам мошенничества и дезинформации.

Сейчас это усугубляется тем, что у них есть возможность использовать искусственный интеллект для проведения незаконных операций. Оператор call-центра может сделать в день 300-500 звонков, отрабатывая свою схему, а ИИ — от 50 до 100 тысяч. При таком охвате кратно увеличивается количество жертв мошенников.

Технологии подделки голоса и изображения сегодня — уже реальность. И эта реальность несет угрозу распространения ложной информации, например в виде создание событий, которых не было. Мошенники звонят взрослым людям и «говорят» голосом их детей, просят о помощи, и все это звучит очень реально. Создаются и видеоизображения, когда на экране смартфона или компьютера вы видите человека, который вам хорошо знаком, но на самом деле это не он, хотя мимика, жесты, голос — точь-в-точь. В связи с этим, на наш взгляд, требуется законодательное регулирование этого качественно нового явления.

- Какое определение будет дано дипфейкам и какая ответственность предусмотрена за их распространение?

- Речь в законопроекте идет о распространении информации и совершении преступлений с использованием изображения или голоса, в том числе фальсифицированных или искусственно созданных, а равно и с использованием биометрических данных. Наказание предусмотрено достаточно серьезное — до шести лет лишения свободы за мошенничество. Документ предполагает включение в ряд статей Уголовного кодекса — о клевете, мошенничестве, вымогательстве и других — дополнительного квалифицирующего признака для тех, кто совершает преступление с использованием дипфейков.

«Газета.Ru»: С января россиян на 30% чаще обманывали с дипфейками

Что касается оценки действия, совершенного с использованием дипфейков, то в каждом случае этим будут заниматься следствие и суд. Мы видим, как сегодня в интернете распространяются, например, видео, имитирующие поведение Дональда Трампа при аресте. Поддельное видео, цель которого — толлинг Трампа накануне выборов. Это уже небезобидно, но от такого рода подделок до подделок с откровенно злым умыслом — один шаг. Дипфейки могут покушаться на достоинство человека, его деловую репутацию, поэтому у людей должна быть законодательная защита, на что и направлен наш законопроект.

- Существуют ли в России технологии, способные распознавать дипфейк?

- Такие разработки есть, но многое зависит от бдительности граждан. С этим мы столкнулись при разработке законопроекта о треш-стримах, когда встал вопрос, как понять, что мы имеем дело именно с таким контентном. Сигналы приходили от пользователей, они указывали на садистские и другие трансляции омерзительного содержания. С дипфейками также должны приходить заявления от граждан, которые увидели себя или знакомого им человека, который никогда не говорил и не делал того, о чем он вещает на экране или по телефону. Если речь о рабочих вопросах, нужно сигнализировать начальству. Если дело совсем серьезное, то сообщать правоохранительным органам. При этом сам человек, образ которого использовали, должен дать публичное опровержение информации, которую сообщил дипфейк.

- Не затормозится ли развитие технологий, если будет принят закон об ответственности за их использование?

- Технологию запретить невозможно. Нельзя запретить технологию создания нового вида оружия, но можно запретить или поставить под контроль его применение. Внося законопроект о дипфейках, мы не ставим задачу влиять на разработку технологий ИИ — они должны развиваться и идти вперед. А вот применение ИИ в противоправных целях — это уже нарушение закона. 

Я не считаю, что дипфейки могут служить каким-то полезным целям. Их создание должно быть объявлено вне закона, как некоторые виды оружия, и не применяться.

Читайте также:

• Депутат Нилов считает, что наказание за дипфейки необходимо ужесточить • Дипфейки сможет распознавать любой смартфон