25/04/2023

Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия». 

В ходе исследования эксперты выделили четыре существующих направления ИИ, каждое из которых представляет широкую предметную область, характеризующуюся форматом информации, с которым работает то или иное решение: компьютерное зрение, обработка естественного языка, распознавание и синтез речи, системы прогнозирования и поддержки принятия решений. 

Вторым параметром стала степень зрелости, отражающая разные стадии развития решений. Здесь выделено три уровня зрелости решения: «концепция», «прототип» и «внедрено».

Таким образом, получены 12 функциональных групп — приоритетных направлений применения ИИ, соответствующих технологическим интересам профильных организаций по мониторингу и обеспечению безопасности Интернета. Каждая группа объединяет решения, предназначенные для выполнения задач в конкретном направлении:

  • обнаружение дипфейков;
  • определение контекста происходящего на видео;
  • автоматизация мониторинга и модерации контента;
  • распознавание лиц;
  • извлечение смысла из текста;
  • поддержка проверки фактов;
  • распознавание символики;
  • извлечение и анализ метаданных;
  • распознавание эмоций;
  • поддержка решений при информационных атаках;
  • генерация контента;
  • рекомендация контента.

44-страничное исследование содержит подробный разбор каждого из направлений. При этом, несмотря на различия в технических особенностях работы решений в каждой группе, исследователи отметили ряд универсальных положений:

  • В России есть экспертиза для создания отечественных датасетов и моделей и качественные решения в области распознавания лиц и работы с информационными атаками, но не хватает вычислительных мощностей, мощного оборудования, инфраструктуры и кооперации между ключевыми стейкхолдерами.
  • Китай и США лидируют с большим отрывом в существенной части направлений развития ИИ. В этих странах развито сотрудничество государственных организаций с коммерческими.
  • Без внедрения ИИ будет крайне проблематично обеспечить когнитивную безопасность населения. 
  • Наличие отечественных моделей и их внедрение, использование отечественных датасетов — вопрос национальной безопасности.
  • Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача. 
  • Значительная часть моделей ИИ представляет собой «чёрный ящик». Внедрение таких моделей иностранного производства представляет угрозу.
  • Регуляторика в большинстве стран не успевает за скоростью развития технологий ИИ.
  • Искусственный интеллект значительно обогнал человека в объёме и скорости обработки данных, работы с большими объёмами информации. Но на данный момент ИИ далек от идеала, чем нередко пользуются злоумышленники.

Государству необходимо разработать процедуры тестирования и оценки моделей ИИ, чтобы поддерживать перспективные проекты и их разработчиков, считают эксперты.

Вы интересуетесь искусственным интеллектом, планируете внедрение или уже используете ИИ в своей работе?

Вы хотите:

  • Понимать уязвимости и угрозы, связанные с ИИ;
  • Знать о построении доверенной работы технологий ИИ;
  • Уметь наладить корректную обработку данных;
  • Приготовиться к защите от атак на ИИ.

 

Станьте первым! Узнайте больше, получите практические советы и обсудите свои подходы к ИИ с экспертами 25 мая 2023 года на первом форуме о доверенном искусственном интеллекте.