Все о пенсиях в России

два дня назадМинфин объяснил, как приумножить пенсионные накопления

01.11.2024Парламентарии Ямала предлагают устранить правовые коллизии в вопросах пенсионного обеспечения северян

29.10.2024Инвестировать пенсию в НПФ можно будет на «Госуслугах»

Дипфейки сможет распознавать любой смартфон

Позволяющую подделывать голоса и изображения технологию не станут запрещать, но будут контролировать

Тема: Петербургский международный экономический форум — 2024

08.06.2024 00:00

Автор: Дмитрий Литвинов

Дипфейки сможет распознавать любой смартфон
  © freepik.com

В самых чувствительных сферах, таких как медицина и образование, разрешат использовать только доверенные разработки с применением искусственного интеллекта. Решения для госорганов должны будут проходить обязательную сертификацию, а для дипфейков напишут закон. При этом регулирование не должно быть чрезмерно строгим, иначе Россия проиграет мировую гонку за ИИ, которая только обостряется. Об этом говорили на тематической сессии Петербургского международного экономического форума 7 июня.

К ИИ подошли мягко

В мире по-разному подходят к развитию ИИ. В Японии технологиям разрешили обучаться на любых доступных продуктах и не учитывают мнение правообладателей, в Израиле, Индии и Австралии власти пока не принимали специальных законов, решив посмотреть, как будут действовать компании. В Европе очень берегут права человека, там ввели некоторые ограничения на использование ИИ.

В России в этом вопросе сложилась гибридная политика: с одной стороны, власти стараются соблюсти интересы людей, с другой — не допустить деструктивного воздействия технологий, а с третьей — не тормозить прогресс, рассказала начальник президентского управления по развитию информационно-коммуникационных технологий Татьяна Матвеева. Сейчас, по ее словам, разрабатываются стандарты использования ИИ, которые лягут в основу системы сертификации. Для государства использование сертифицированных решений может стать обязательным, для бизнеса на первом этапе — добровольным.

В мире с интересом изучают наш кодекс этики в сфере ИИ, к которому уже присоединились 383 участника, в том числе 27 зарубежных организаций из 19 стран, сообщила Матвеева. Кодекс, напомнила она, это не закон, а норма мягкого права — своего рода социальная ответственность разработчиков за то, что ИИ не навредит.

В будущее Матвеева смотрит с оптимизмом и верит, что к 2030 году Россия сможет стать лучшей регуляторной юрисдикцией для развития ИИ.

Наши данные — только наши

Глава Комитета Госдумы по информационной политике Александр Хинштейн в своих оценках был более сдержан, сказав, что законодательное регулирование ИИ в России пока и вовсе отсутствует. Сам термин упоминается всего в двух законах. Ситуацию пора исправлять, поэтому команда законодателей и экспертов сейчас пишет Цифровой кодекс, а в Госдуме ко второму чтению готовят законопроект о больших данных. Такие данные, будучи даже обезличенными, все же остаются персональными, подчеркнул Хинштейн. «Их нельзя пускать на самотек, и нужно обеспечить право человека ими распоряжаться», — сказал он.

Еще одна законодательная инициатива на подходе — регулирование дипфейков, поскольку количество преступлений, совершаемых с помощью этой технологии, только растет. Каким будет это регулирование, Александр Хинштейн не сообщил. Запрещать дипфейки как класс было бы странно, считает вице-президент по кибербезопасности Сбербанка Сергей Лебедь. С их помощью можно сделать много чего хорошего: изучать историю, создавать хорошие фильмы и музыку. На ПМЭФ работу технологии демонстрируют многие компании, обратил внимание специалист: стенды говорят на разные голоса и проецируют самые разные изображения.

Что до недобросовестного использования дипфейков, то эту проблему скоро решат, анонсировал Сергей Лебедь: «Уже есть технологии их выявления, скоро они будут встроены во все гаджеты».

Мир в погоне за технологиями

ИИ — универсальная технология, ее можно использовать, чтобы учить и лечить людей, строить и программировать, и даже управлять государством. В самых чувствительных сферах нужно использовать доверенные отечественные решения, в которые не смогут попасть так называемые отравленные данные извне, подчеркнула Татьяна Матвеева. А специалист в сфере информационных технологий Игорь Ашманов призвал исключить применение ИИ в социальной сфере: технология не должна оценивать людей. «Лишние данные о нас ИИ не нужны, — сказал он. — А нужны они жадным коммерсантам для зарабатывания денег. Без данных пострадает только сверхприбыль и цифровой капитализм, а нам это не нужно».

Обсудили на площадке и международное взаимодействие в сфере ИИ. В марте 2024 года Генассамблея ООН приняла первую резолюцию о регулировании искусственного интеллекта, напомнила официальный представитель МИД Мария Захарова. Документ носит мирный характер, но в ближайшее время она предрекла обострение битвы за место под солнцем в сфере разработок. «Страны начнут доставать из рукава свои наработки, чтобы занять побольше места на этой поляне», — заключила Захарова.

Резолюция, предложенная США, призывает к мировому сотрудничеству в сфере ИИ. При ее рассмотрении американский постпред при ООН отметила, что страны, поддержавшие инициативу, не хотят допустить, «чтобы искусственный интеллект управлял людьми». Такую позицию Игорь Ашманов посчитал блефом: «На международном уровне договориться нам ни о чем не удастся, там лидеры — США и Китай. Они рвутся к первенству и не хотят себя ограничивать».

России, по мнению Ашманова, нужно сотрудничать со странами БРИКС, в числе которых, кстати, Китай, и создавать свой пул технологий. «Сам по себе ИИ никому не угрожает — угрозу представляют люди, которые им управляют», — заключил специалист.

Читайте также:

• Искусственный разум или личный турагент