Большие достижения в области ИИ нас ждут в тех системах, для которых мы сформулируем конкретную задачу
06/10/2023
Риски широкого распространения и использования искусственного интеллекта обсудили участники пленарной сессии «Использование систем искусственного интеллекта: вопросы доверия и информационной безопасности» Дня Кибербезопасности Форума GIS DAYS 2023, который прошёл 6 октября в Москве.
Термин «искусственный интеллект» придумал Марвин Минский, напомнил Валерий Конявский, заведующий кафедрой «Защита информации» МФТИ. И все ему искренне поверили. «Через три или четыре года Марвин Минский честно сказал, что никакого ИИ нет и быть не может, и я ему верю и нахожусь в этом заблуждении до сих пор, — продолжил эксперт. — Мне кажется, что есть система линейных уравнений. К ней можно подобрать коэффициент — это и есть машинное обучение. Для того, чтобы подобрать коэффициенты, есть разные методы. Мы смотрим на данные, на основе которых коэффициенты принимаются».
«Возможны целая груда утечек — прямые, с которыми мы умеем бороться, и здесь всё получается хорошо, — полагает Конявский. — Косвенные утечки возникают тогда, когда мы решаем общую, а не конкретную задачу. Если мы её решаем, то понимаем, каким образом можно избежать косвенных утечек. Это один из методологических выводов, которые можно сделать». В качестве примера спикер привёл анализ отчётов, из которых можно извлечь данные косвенным образом. Для того, чтобы защитить данные в таких случаях, необходимо решить математические проблемы, считает Валерий Конявский. Над этими вопросами работают исследователи в МФТИ.
«Опыта работы с косвенными утечками у нас мало, нужен огромный опыт», — заявил докладчик — Сейчас мало методологий. Важны такие функции, как чёткая постановка и формулировка задачи и чёткое понимание, откуда происходят косвенные утечки».
Он привёл пример машины Тьюринга, в которой машина вычисляла, человек смотрел на результаты вычисления. С этого момента началось отчуждение формы от содержания. «Содержание — семантика, форма — число», — напомнил Конявский — Эта позиция сохраняется и является источником основных косвенных утечек».
Методы машинного обучения и, в частности, те методы, которые сейчас разрабатываем — слепого машинного обучения (когда оператору нельзя смотреть на защищаемые данные другого оператора), можно сделать только тогда, когда мы глубоко понимаем семантику данных. Или делим данные на части, и каждый оператор обрабатывает то, на что можно смотреть. Только тогда получаются результаты, полагает спикер.
Вторая проблема, которую отметил Валерий Конявский, в том, что среди большого количества регуляторов нет того, кто скажет, как правильно. Есть ситуации, когда регулятор в сфере ИБ считает механизма защиты достаточным, а регулятор персданных полагает, что нет. «Нужен арбитр, чтобы понимать», — подчеркнул эксперт.
«Я думаю, что большие достижения в области ИИ нас ждут в тех системах, для которых мы сформулируем конкретную задачу. Методы слепого машинного обучения сейчас через 2-4 года станут методами семантического машинного обучения», — озвучил свой прогноз докладчик.
Медиа Группа «Авангард» в рамках GIS DAYS 2023 выступила организатором ключевой дискуссии в Москве.