Созданный искусственным интеллектом контент предложили маркировать
Требование помечать созданный с помощью технологий искусственного интеллекта (ИИ) контент — жесткое, но пока не существует другого выхода для борьбы с фейками. Об этом на совещании 24 апреля сказал член Комитета Совета Федерации по бюджету и финрынкам Александр Шендерюк-Жидков.
Любой человек должен иметь возможность отличить контент, созданный с помощью ИИ от информации, произведенной человеком, считает сенатор. Дипфейки, по его словам, сегодня содержат оба вида информации, которая переплетается, что усложняет распознавание правды. Поэтому российским программистам необходимо работать над созданием программ, которые помогут отличать контент ИИ от любого другого, уверен Александр Шендерюк-Жидков. А пока такого софта не существует, необходимо ввести требования специально помечать контент, созданный искусственным интеллектом. «Это жестко, но другого выхода я пока не вижу», — сказал член Совфеда.
С предложением не согласились в Национальном центре развития искусственного интеллекта при Правительстве. Руководитель аналитического управления Павел Елсуков напомнил, что в России действует Кодекс этики в сфере искусственного интеллекта, в котором прописаны основные принципы его функционирования и по сути декларируется принцип «не навреди». «Это мягкое регулирование, которое приемлемо для большинства компаний, — отметил Елсуков. — Если мы везде заставим ставить дисклеймер об использовании ИИ, для многих это будет критично — у компаний возникнут дополнительные траты, а некоторые проекты даже могут встать».
Проводившая заседание сенатор Ирина Рукавишникова напомнила, что принципы информированности и возможности отказа человека от работы с ИИ прописаны в Кодексе этики, однако сегодня пришло время закреплять эти положения законодательно.
Читайте также:
• Китайские эксперты рассказали о методах выявления фейков, создаваемых нейросетью • Маск анонсировал создание «честного» чат-бота TruthGPT
Ещё материалы: Ирина Рукавишникова, Александр Шендерюк-Жидков