27/12/2023

По итогам стратегической сессии, посвящённой национальному проекту «Экономика данных», глава правительства РФ Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ).

Соответствующее заявление появилось на официальном сайте правительства, пишут «Известия». По мнению опрошенных газетой экспертов, подобные дипфейки могут нести в себе огромные риски, в том числе для объектов критической инфраструктуры и органов власти.

По оценке специалистов, указанные мероприятия ложатся в рамки проводимой в России с 2019 года Национальной стратегии развития искусственного интеллекта на период до 2030 года, а также служат переформатированию федерального проекта «Искусственный интеллект» в части создания новых проектов на 2025 – 2030 годы. Аналитики отмечают, что сферу ИИ уже пытаются регулировать на государственном уровне в США и Великобритании, поэтому здесь можно говорить о мировом тренде.

Создание и использование дипфейков стало одним из негативных эффектов и обратной стороной полезности ИИ, больших данных и других современных технологий. Количество недостоверных данных, созданных с помощью технологий ИИ, ежедневно растёт в геометрической прогрессии, а отличить дипфейк от настоящей информации крайне сложно.

Борьба с дипфейками вышла на государственный уровень из-за больших рисков, связанных с отсутствием контроля в распространении подобной информации. С одной стороны, генерация контента с помощью нейросетей почти ничего не стоит, а с другой — скорость создания таких роликов, фотографий и текстов значительно превышает возможности стандартных редакций СМИ. А распространение дипфейков может стать угрозой для государства, общества и отдельных граждан. Использование технологий машинного обучения, компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, а также интеллектуальной поддержки принятия решений может привести к сбору огромного количества персональных данных, появлению ложных информационных сообщений, материальному ущербу и ошибочным действиям должностных лиц. В случае критически важных отраслей последствия таких действий могут оказаться непоправимыми.

Распространению поддельного контента способствует упрощение алгоритмов, их совершенствование, снижение требований к аппаратной платформе, а также доступность сервисов и программ по созданию дипфейков. Также совершенствуются технологии защиты дипфейков от потенциальной проверки.

Идентификация дипфейков — это сложная и многомерная задача, в которой традиционные методы анализа показывают крайне малую эффективность. Необходима разработка принципиально новых подходов и решений, демонстрирующих высокий уровень глубинного анализа. Для борьбы с поддельным контентом эксперты предлагают использовать специальные программы, технологии ИИ и машинного обучения.