Касперская: Системам ИИ полностью передавать решения нельзя
06/10/2023
Риски широкого распространения и использования искусственного интеллекта обсудили участники пленарной сессии «Использование систем искусственного интеллекта: вопросы доверия и информационной безопасности» Дня Кибербезопасности Форума GIS DAYS 2023, который прошел 6 октября в Москве.
«Системы ИИ — любые системы, имитирующие когнитивные функции человека, — начала выступление с определений Наталья Касперская, Президент ГК «InfoWatch», сооснователь компании «Лаборатория Касперского», отвечая на вопрос модератора сессии Артёма Калашникова, управляющего директора Центра информационной безопасности дочерних и зависимых обществ (Газпромбанк) о решении проблемы «чёрного ящика» ИИ. — Антивирусные программы — пример систем ИИ. Встроенные системы Т9, которые подставляют слова в телефоне — системы ИИ».
«И мне неизвестно, чтобы проблема "чёрного ящика" была решена», — отметила Наталья Касперская, уточнив, что надо говорить про системы машинного обучения, поскольку в них сосредоточены наибольшие риски. «Машина делает что-то сама, что мы не в состоянии понять. И это является проблемой “чёрного ящика”, — заметила докладчик. — Эту задачу невозможно решить, но можно снижать риски».
В качестве примеров Касперская привела возможность использовать доверенные дата-сеты, на которых система будет обучаться, и сертифицировать процесс их разработки, можно брать доверенные фрейморки. Однако и тут есть вопрос доверия, поскольку за основу берутся разработки иностранных ИТ-гигантов. «Если предположить, что у нас есть доверенные платформы, мы не может гарантировать, что система не примет решения, которое не ожидаем, — считает спикер — Для систем ML — это некая побочная функция. Мы должны понимать, что в некоторых случаях можем получить непредсказуемый результат».
Эксперт также отметила, что когда ставится вопрос о доверенности, надо учитывать, помимо прочих, и гуманитарные риски принятия решения о людях: увольнение, расчёт дозы лекарства и так далее. В этом случае есть риск принятия неверного решения и вопрос ответственности за него.
«Системам ИИ полностью передавать решения нельзя», — полагает Наталья Касперская, отметив, что риск того, что система примет неправильное решение, должен быть нивелирован человеком, должна быть ответственность.
Отмечая другие гуманитарные аспекты использования ИИ, докладчик отметила тенденцию деградации умений человека: калькулятор отучил его считать, навигатор — ориентироваться на местности. Из программ обучения вторых пилотов исключили раздел ручной посадки самолетов. Многие медицинские диагнозы ставятся на основе BigData, врачи теряют профессиональные навыки и интуицию. Это огромные социальные риски, которые видны на больших данные. При опоре на дата-сеты через два поколения «мы получим искусственный интеллект и глупых людей», считает эксперт.
Медиа Группа «Авангард» в рамках GIS DAYS 2023 выступила организатором ключевой дискуссии в Москве.