Все о пенсиях в России

два дня назадУчастникам СВО хотят сохранить размер пенсионного коэффициента

два дня назадРоссиянам напомнили о повышении пенсий с 1 января

20.11.2024На индексацию страховых пенсий в 2025 году направят более 700 миллиардов рублей

Горелкин выступил за маркировку сгенерированных нейросетями изображений людей

16.02.2022 15:25

Автор: Наталия Васильева

Горелкин выступил за маркировку сгенерированных нейросетями изображений людей
  © пресс-служба депутата Антона Горелкина

Заместитель председателя Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин («Единая Россия») выступил за принятие защитных мер, которые позволят идентифицировать сгенерированные нейросетями изображения людей, используемые для создания дипфейков. 

Дипфейк — это видеоролик, в котором лицо или голос одного человека подменяется другим при помощи алгоритмов машинного обучения. Если при создании дипфейка используется лицо известной личности, то люди, просматривающие ролик, могут подумать, что реальный человек сказал те слова, которые звучат на видео.

По словам Горелкина, искусственный интеллект научился генерировать чрезвычайно правдоподобные человеческие лица. В большинстве случаев люди не могут отличить сгенерированные изображения от изображений реальных людей. Потенциальная опасность дипфейков подтверждается исследованиями ученых, отмечает депутат. При этом данная технология находится в публичном доступе и уже используется разного рода мошенниками.

«Исследователи пришли к выводу, что необходимо принимать защитные меры, которые позволят идентифицировать синтезированные изображения — например, внедрять в нейросети механизм „водяных знаков“ или маркировать результат их работы каким-то иным способом. Полностью поддерживаю эту позицию», — написал Горелкин в своем Telegram-канале.

Читайте также:

• Кто может расплатиться вашим лицом? • Что угрожает биометрическим данным граждан • СМИ: мошенники начали использовать технологию распознавания голоса для кражи данных

Ранее Горелкин отмечал, что в России нужно задуматься о законодательном регулировании использования дипфейков, как это уже сделал Китай. Иначе их могут создавать для мошенничества, распространения ложной информации и манипуляций. Депутат напомнил, что прошлой осенью в соцсетях разместили видеоролик с фальшивым обращением одного из банкиров. При этом ссылки в видео вели на фишинговый сайт, с помощью которого мошенники собирали пользовательские данные.