Искусственный интеллект: 12 приоритетных направлений для обеспечения безопасности интернет-пользователей
25/04/2023
Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия».
В ходе исследования эксперты выделили четыре существующих направления ИИ, каждое из которых представляет широкую предметную область, характеризующуюся форматом информации, с которым работает то или иное решение: компьютерное зрение, обработка естественного языка, распознавание и синтез речи, системы прогнозирования и поддержки принятия решений.
Вторым параметром стала степень зрелости, отражающая разные стадии развития решений. Здесь выделено три уровня зрелости решения: «концепция», «прототип» и «внедрено».
Таким образом, получены 12 функциональных групп — приоритетных направлений применения ИИ, соответствующих технологическим интересам профильных организаций по мониторингу и обеспечению безопасности Интернета. Каждая группа объединяет решения, предназначенные для выполнения задач в конкретном направлении:
обнаружение дипфейков;
определение контекста происходящего на видео;
автоматизация мониторинга и модерации контента;
распознавание лиц;
извлечение смысла из текста;
поддержка проверки фактов;
распознавание символики;
извлечение и анализ метаданных;
распознавание эмоций;
поддержка решений при информационных атаках;
генерация контента;
рекомендация контента.
44-страничное исследование содержит подробный разбор каждого из направлений. При этом, несмотря на различия в технических особенностях работы решений в каждой группе, исследователи отметили ряд универсальных положений:
В России есть экспертиза для создания отечественных датасетов и моделей и качественные решения в области распознавания лиц и работы с информационными атаками, но не хватает вычислительных мощностей, мощного оборудования, инфраструктуры и кооперации между ключевыми стейкхолдерами.
Китай и США лидируют с большим отрывом в существенной части направлений развития ИИ. В этих странах развито сотрудничество государственных организаций с коммерческими.
Без внедрения ИИ будет крайне проблематично обеспечить когнитивную безопасность населения.
Наличие отечественных моделей и их внедрение, использование отечественных датасетов — вопрос национальной безопасности.
Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача.
Значительная часть моделей ИИ представляет собой «чёрный ящик». Внедрение таких моделей иностранного производства представляет угрозу.
Регуляторика в большинстве стран не успевает за скоростью развития технологий ИИ.
Искусственный интеллект значительно обогнал человека в объёме и скорости обработки данных, работы с большими объёмами информации. Но на данный момент ИИ далек от идеала, чем нередко пользуются злоумышленники.
Государству необходимо разработать процедуры тестирования и оценки моделей ИИ, чтобы поддерживать перспективные проекты и их разработчиков, считают эксперты.
Вы интересуетесь искусственным интеллектом, планируете внедрение или уже используете ИИ в своей работе?
Вы хотите:
Понимать уязвимости и угрозы, связанные с ИИ;
Знать о построении доверенной работы технологий ИИ;
Уметь наладить корректную обработку данных;
Приготовиться к защите от атак на ИИ.
Станьте первым! Узнайте больше, получите практические советы и обсудите свои подходы к ИИ с экспертами 25 мая 2023 года на первом форуме о доверенном искусственном интеллекте.