Все о пенсиях в России

24.12.2024В Соцфонде рассказали, кого коснется досрочная выплата пенсий за январь

23.12.2024Соцфонд досрочно выплатит январские пенсии

19.12.2024Путин поручил властям ДНР решать вопросы начисления пенсий без бюрократии

Искусственному интеллекту не позволят обманывать читателей и зрителей

Отвечать за достоверность информации будут люди, осталось только определить, кто именно

26.10.2023 16:46

Автор: Дмитрий Литвинов

Искусственному интеллекту не позволят обманывать читателей и зрителей
  © freepik.com

Все созданные с использованием технологий искусственного интеллекта (ИИ) материалы должны быть помечены, а если нейросети применяют для подготовки новостных материалов или репортажей в СМИ, вся информация должна быть проверена людьми, которые в случае чего и будут отвечать за последствия. Пока законодатели и эксперты только обсуждают такие поправки, ИИ уже вовсю и пишет, и создает картинки и видео, и даже обманывает.

Риски отразят в Цифровом кодексе

То, что нейросети способны создавать информационные заметки и даже могут при правильном запросе сочинить за студента дипломную работу, уже не новость. Но одно дело — доверить искусственному разуму рутинную работу, с которой приходится иметь дело журналистам, вроде расшифровки диктофонной записи, а другое — попросить нейросеть написать статью на заданную тему. Она, конечно, справится, но какого качества получится материал и насколько он будет соответствовать принятой в обществе системе оценок, задался вопросом на круглом столе в Совете Федерации 26 октября председатель Комиссии палаты по информационной политике и взаимодействию со СМИ журналист Алексей Пушков. Одна из главных, по его мнению, опасностей бесконтрольного применения ИИ — деперсонализация СМИ, утрата роли и личности журналиста.

Использование ИИ пока никак не урегулировано российскими законами, констатировала первый зампред Комитета Совфеда по госстроительству Ирина Рукавишникова. При этом технологии уже позволяют вовсю генерировать ложные инфоповоды и откровенные фейки, создавать виртуальные личности, подделывать голоса и изображения. В Цифровом кодексе, над которым сейчас работают в России, обязательно будет раздел об ИИ, пообещала Рукавишникова. Правильным, по ее мнению, должен стать рискориентированный подход к использованию таких технологий. Чем выше риск, тем выше ответственность. Сенатор назвала наиболее чувствительные сферы: медицина, персональные данные, массовая информация.

Как лишиться доверия

Журналисты идут в ногу со временем и пробуют поставить ИИ себе на службу, рассказал главный редактор «Московского комсомольца», председатель Союза журналистов Москвы Павел Гусев. «Мы пробуем генерировать заголовки по не самым значимым темам, например, в светской хронике, — рассказал он. — До политики и экономики ИИ, конечно, не допускаем, поскольку он очень несовершенен и совершает много ошибок. Плюс он опирается на западные информационные системы, чуждые нам, что может и вовсе обернуться катастрофой».

© пресс-служба Совета Федерации

Исследователи МГТУ имени Баумана определили, чем может быть полезен ИИ редакциям: с его помощью можно искать и отслеживать информацию, генерировать идеи и темы, оценивать достоверность контента, расшифровывать большие объемы видео- или аудиоконтента, переводить и стилизовать текст, персонализировать его под конкретную аудиторию, насыщать тексты дополнительными сведениями, например, картинками, осуществлять верстку, а также продвигать созданное произведение.

Существуют и угрозы, предупредил старший преподаватель кафедры информационных технологий Денис Бекасов: непредсказуемость результата, потеря смысла и деталей, неэтичность, дискриминация, нарушение закона, предвзятость, простота создания фейков, использование чужой интеллектуальной собственности, манипуляция общественным мнением. «Как следствие — потеря доверия аудитории к конкретному СМИ», — заключил преподаватель.

Комитет Госдумы по обороне одобрил увеличение военных пенсий в 2024 году

Кто в ответе за нейросеть

Помогая людям творческих профессий, искусственный интеллект одновременно лишает их компетенций, а потребителей контента приучает к невзыскательности. Так считает член президентского Совета по правам человека, специалист по ИИ Игорь Ашманов: «Искусственный интеллект все усредняет и превращает в «интеллектуальный доширак», но поскольку эти технологии становятся все дешевле, редакции ими с радостью пользуются».

Об использовании ИИ в любых произведениях потребителей контента нужно обязательно информировать, призвал Ашманов. Это должна быть звуковая информация, пометки или плашки в новостях и статьях. В целом же, по мнению эксперта, нужно пересматривать действующий закон о СМИ с учетом новых реалий.

При всем кажущемся могуществе ИИ пока не может развиваться самостоятельно, без участия человека, отметил член Комитета Госдумы по просвещению Анатолий Вассерман. А значит, и отвечать за последствия, вызванные использованием ИИ, должны люди. Вот только кто именно?

Персонификация ответственности, по словам Ирины Рукавишниковой, — один из важных вопросов, над которым работают законодатели. Круг потенциально причастных широк: это и разработчики систем ИИ, и те, кто обучает нейросети, насыщая их информацией, и их операторы. «Это новый подход к ответственности за применение, проверку и контроль систем, который должен найти отражение в законодательстве», — заключила Рукавишникова.

Читайте также:

• Дикторы попросили защитить их голоса от искусственного интеллекта