Искусственному интеллекту не позволят обманывать читателей и зрителей
Отвечать за достоверность информации будут люди, осталось только определить, кто именно
Все созданные с использованием технологий искусственного интеллекта (ИИ) материалы должны быть помечены, а если нейросети применяют для подготовки новостных материалов или репортажей в СМИ, вся информация должна быть проверена людьми, которые в случае чего и будут отвечать за последствия. Пока законодатели и эксперты только обсуждают такие поправки, ИИ уже вовсю и пишет, и создает картинки и видео, и даже обманывает.
Риски отразят в Цифровом кодексе
То, что нейросети способны создавать информационные заметки и даже могут при правильном запросе сочинить за студента дипломную работу, уже не новость. Но одно дело — доверить искусственному разуму рутинную работу, с которой приходится иметь дело журналистам, вроде расшифровки диктофонной записи, а другое — попросить нейросеть написать статью на заданную тему. Она, конечно, справится, но какого качества получится материал и насколько он будет соответствовать принятой в обществе системе оценок, задался вопросом на круглом столе в Совете Федерации 26 октября председатель Комиссии палаты по информационной политике и взаимодействию со СМИ журналист Алексей Пушков. Одна из главных, по его мнению, опасностей бесконтрольного применения ИИ — деперсонализация СМИ, утрата роли и личности журналиста.
Использование ИИ пока никак не урегулировано российскими законами, констатировала первый зампред Комитета Совфеда по госстроительству Ирина Рукавишникова. При этом технологии уже позволяют вовсю генерировать ложные инфоповоды и откровенные фейки, создавать виртуальные личности, подделывать голоса и изображения. В Цифровом кодексе, над которым сейчас работают в России, обязательно будет раздел об ИИ, пообещала Рукавишникова. Правильным, по ее мнению, должен стать рискориентированный подход к использованию таких технологий. Чем выше риск, тем выше ответственность. Сенатор назвала наиболее чувствительные сферы: медицина, персональные данные, массовая информация.
Как лишиться доверия
Журналисты идут в ногу со временем и пробуют поставить ИИ себе на службу, рассказал главный редактор «Московского комсомольца», председатель Союза журналистов Москвы Павел Гусев. «Мы пробуем генерировать заголовки по не самым значимым темам, например, в светской хронике, — рассказал он. — До политики и экономики ИИ, конечно, не допускаем, поскольку он очень несовершенен и совершает много ошибок. Плюс он опирается на западные информационные системы, чуждые нам, что может и вовсе обернуться катастрофой».
Исследователи МГТУ имени Баумана определили, чем может быть полезен ИИ редакциям: с его помощью можно искать и отслеживать информацию, генерировать идеи и темы, оценивать достоверность контента, расшифровывать большие объемы видео- или аудиоконтента, переводить и стилизовать текст, персонализировать его под конкретную аудиторию, насыщать тексты дополнительными сведениями, например, картинками, осуществлять верстку, а также продвигать созданное произведение.
Существуют и угрозы, предупредил старший преподаватель кафедры информационных технологий Денис Бекасов: непредсказуемость результата, потеря смысла и деталей, неэтичность, дискриминация, нарушение закона, предвзятость, простота создания фейков, использование чужой интеллектуальной собственности, манипуляция общественным мнением. «Как следствие — потеря доверия аудитории к конкретному СМИ», — заключил преподаватель.
Кто в ответе за нейросеть
Помогая людям творческих профессий, искусственный интеллект одновременно лишает их компетенций, а потребителей контента приучает к невзыскательности. Так считает член президентского Совета по правам человека, специалист по ИИ Игорь Ашманов: «Искусственный интеллект все усредняет и превращает в «интеллектуальный доширак», но поскольку эти технологии становятся все дешевле, редакции ими с радостью пользуются».
Об использовании ИИ в любых произведениях потребителей контента нужно обязательно информировать, призвал Ашманов. Это должна быть звуковая информация, пометки или плашки в новостях и статьях. В целом же, по мнению эксперта, нужно пересматривать действующий закон о СМИ с учетом новых реалий.
При всем кажущемся могуществе ИИ пока не может развиваться самостоятельно, без участия человека, отметил член Комитета Госдумы по просвещению Анатолий Вассерман. А значит, и отвечать за последствия, вызванные использованием ИИ, должны люди. Вот только кто именно?
Персонификация ответственности, по словам Ирины Рукавишниковой, — один из важных вопросов, над которым работают законодатели. Круг потенциально причастных широк: это и разработчики систем ИИ, и те, кто обучает нейросети, насыщая их информацией, и их операторы. «Это новый подход к ответственности за применение, проверку и контроль систем, который должен найти отражение в законодательстве», — заключила Рукавишникова.
Читайте также:
• Дикторы попросили защитить их голоса от искусственного интеллекта
Ещё материалы: Алексей Пушков, Ирина Рукавишникова, Анатолий Вассерман