В ближайшие годы в России может появиться отдельный свод законов, норм и правил, которые будут регулировать искусственный интеллект. В нём планируют написать и про ответственность разработчиков ИИ, задать классификацию умных цифровых систем на опасные и безопасные, а также закрепить маркировку контента, сгенерированного нейросетями, пишет «Парламентская газета», организатор круглого стола по вопросам ИИ.
Сегодня интеллектуальные цифровые системы в России применяются не слишком широко. Однако влияние их растет, считает эксперт в области информационных технологий и искусственного интеллекта Игорь Ашманов. Уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.
Искусственный интеллект сейчас пытаются внедрить везде: «умные камеры» уже используют для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов, правовой статус распознавания лиц никак не определён, — отмечает Ашманов.
По мнению директора Национального центра развития искусственного интеллекта при Правительстве РФ Сергея Наквасина, сейчас страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни. «Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьёзными проблемами», — считает он, подчеркивая, что нет даже терминологической базы — нигде не зафиксировано четкое определение самого ИИ и многочисленных дополнительных понятий, которые с ним связаны.
Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и т. д.
Работа по созданию свода законов ведётся, отмечает первый зампред Комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. На проработку вопросов уйдет 2-3 года, считает она.
«По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом», — отмечает Рукавишникова. Параллельно с этим нужно работать точечно: дополнять и расширять нормативные акты, которые уже существуют и касаются цифрового благополучия страны.
Другая форма защиты от ИИ — маркировка контента, который создан с его помощью. Прежде всего это нужно, чтобы снизить угрозу от дипфейков — искусственно сгенерированных фотографий и видеозаписей, которые уже освоили в том числе мошенники, успешно выманивающие с их помощью у людей деньги.
За точечный подход выступают и сами разработчики. Участники обсуждения напомнили также, что концепция развития искусственного интеллекта в России существует уже несколько лет. Однако сейчас в связи со стремительным развитием технологий работу по её реализации нужно серьёзно ускорить.