На пути к цифровому кодексу РФ: искусственный интеллект требует особого внимания
Искусственный интеллект (ИИ) является одной из самых быстроразвивающихся областей науки и техники. Он находит применение в различных сферах человеческой деятельности, от медицины и образования до производства и транспорта. Однако стремительное развитие ИИ также вызывает ряд вопросов и проблем, которые требуют законодательного регулирования.
Стоит понимать, что развитие ИИ дает нам как новые возможности, так и угрозы безопасности наших граждан. Мошенники все чаще используют нейросети в своих схемах.
Валентина Матвиенко, председатель Совета Федерации, на пленарном заседании уделила особое внимание этому вопросу и сделала акцент на необходимости разработки и принятия законов, регулирующих использование искусственного интеллекта.
В рамках работы Комитета Совета Федерации по конституционному законодательству и государственному строительству намерен активно заниматься этим вопросом. Наша цель — гарантировать безопасность и защитить права граждан в эпоху развития новых технологий.
Категории риска для технологий на основе искусственного интеллекта
В первую очередь, чтобы минимизировать риски и обеспечить безопасность использования ИИ, необходимо разработать систему классификации технологий по степени риска.
Система классификации должна включать три основные категории:
- Высокая. Технологии, которые имеют высокий уровень риска, требуют запрета использования, поскольку могут привести к непоправимым для общества и экономики последствиям.
- Средняя. Технологии, которые имеют высокий уровень риска, требуют особого внимания и контроля со стороны государства и общества. К ним относятся технологии, которые могут привести к экономическим потерям, нарушению конфиденциальности данных или другим серьёзным последствиям.
- Низкая. Технологии с низким уровнем риска могут использоваться без особых ограничений.
Маркировка контента, созданного с использованием нейросетей: защита от дипфейков и сохранение уникальности искусства
Следующим шагом должна стать маркировка контента, созданного с использованием нейросетей.
Искусственный интеллект уже способен генерировать тексты, изображения, видео и аудиозаписи, что открывает новые возможности для творчества, но также создает угрозу злоупотребления. Мошенники все чаще используют дипфейки для распространения дезинформации и вымогания денежных средств.
Представители искусства также выражают обеспокоенность по поводу дипфейков. Председатель Союза кинематографистов Н. С. Михалков считает, что дипфейки представляют «страшную опасность», и отмечает, что использование этой технологии может привести к «непредвиденным последствиям», таким как потеря уникальности и ценности работы артистов.
Для обеспечения прозрачности и доверия в цифровом пространстве необходимо разработать систему, которая будет анализировать контент и определять, создан ли он человеком или сгенерирован нейросетью. Это позволит оперативно удалять нежелательный контент и привлекать к ответственности нарушителей.
Ответственность за системы искусственного интеллекта: кто и за что отвечает?
Ответственность за системы ИИ должна возлагаться на поставщика. Поставщик — это физическое или юридическое лицо, которое размещает систему на рынке или вводит ее в эксплуатацию. Независимо от того, кто спроектировал или разработал систему, именно поставщик должен гарантировать её соответствие всем необходимым стандартам и требованиям безопасности.
Разработчики и развертыватели также должны рассматриваться как поставщики систем ИИ и, следовательно, брать на себя все соответствующие обязательства.
Важно отметить, что ответственность за системы ИИ должна быть четко определена и закреплена законодательно. Это позволит создать эффективную систему контроля и надзора за разработкой, внедрением и эксплуатацией систем.
Лицензирование искусственного интеллекта: необходимость и перспективы
Одним из способов обеспечения безопасности и этичности использования ИИ является его лицензирование. Лицензирование ИИ предполагает выдачу разрешений на разработку, тестирование и использование систем искусственного интеллекта. Лицензии могут выдаваться государственным органом или специализированной организацией.
В дальнейшем необходимо ограничивать работу с продвинутыми инструментами искусственного интеллекта без лицензии.
Платить авторам контента при обучении искусственного интеллекта
Все чаще возникает вопрос о защите авторских прав на контент, который используется для обучения нейросетей. В связи с этим предлагается ввести систему оплаты авторам контента, которая позволит компенсировать их труд и стимулировать создание качественного материала.
Для реализации этой системы необходимо предпринять следующие шаги:
- Запрет на генерацию нелегального контента. Разработчикам следует запретить использовать контент, защищенный авторскими правами, без согласия правообладателя. Это поможет предотвратить нарушение прав авторов и обеспечит легальность материалов, используемых для обучения ИИ.
- Обязать разработчиков сообщать о материалах, используемых для обучения. Разработчики должны будут предоставлять информацию о контенте, который они используют для обучения своих систем. Это позволит правообладателям отслеживать использование их материалов и получать компенсацию за их использование.
- Правообладатели смогут подавать иски. Если правообладатель обнаружит, что разработчик незаконно использовал его контент для обучения ИИ, он сможет подать иск.
- Штрафы за нарушение правил. За нарушение правил использования контента для обучения ИИ следует предусмотреть штрафы. Это станет дополнительным стимулом для разработчиков соблюдать законодательство и уважать авторские права.
Технологии искусственного интеллекта средней категории риска необходимо приравнять к объектам критической информационной инфраструктуры
Кибербезопасность играет решающую роль в обеспечении устойчивости систем ИИ от преступных действий третьих лиц, использующих уязвимости системы.
Чтобы предотвратить возможные негативные последствия, необходимо принять меры по регулированию и контролю за этими технологиями. Одним из возможных решений является приравнивание технологий ИИ средней категории риска к объектам критической информационной инфраструктуры (КИИ).
Критическая информационная инфраструктура — это совокупность объектов, которые обеспечивают функционирование ключевых сфер жизнедеятельности государства и общества. К ним относятся, например, системы управления энергетикой, транспортом, связью и другими важными отраслями.
Приравнивание технологий ИИ средней категории риска к объектам КИИ позволит установить более строгие требования к их разработке, тестированию и эксплуатации.
Создание нормативной «песочницы»
Внедрение новых технологий и продуктов сопряжено с определенными рисками и трудностями, связанными с необходимостью соблюдения законодательства и нормативных требований.
Для того чтобы ускорить разработку и внедрение новых продуктов и услуг в сферах применения цифровых инноваций, необходимо создать правовые условия, которые позволят инвесторам и разработчикам экспериментировать с новыми технологиями без риска нарушить закон. Одним из инструментов, который может помочь в решении этой задачи, является регулятивная песочница (РП).
Регулятивная песочница — это специальная правовая модель, в рамках которой инвесторы и разработчики могут внедрять новые технологии, не рискуя нарушить закон. Песочница позволяет проводить эксперименты с новыми продуктами и услугами в условиях, максимально приближенных к реальным, но при этом защищенных от возможных негативных последствий.
Для успешной работы регулятивной песочницы необходимо обеспечить участие в ней представителей бизнеса, профильных организаций и технических специалистов. Это позволит учесть интересы всех сторон и обеспечить эффективное внедрение инноваций.
В эпоху стремительного развития цифровых технологий становится очевидным, что существующее законодательство нуждается в адаптации. Создание цифрового кодекса — это сложный и долгий процесс, требующий тщательной проработки и согласования.
Уже сейчас необходимо вносить изменения в существующие законы, чтобы обеспечить соответствие законодательства современным технологическим реалиям и защитить права и свободы граждан в цифровом пространстве.
Ещё материалы: Артем Шейкин