02/02/2022

Закари Келленборн, научный сотрудник Школы политологии и теории управления имени Шара, указал в своей статье в журнале Bulletin of the Atomic Scientists, что предоставление искусственному интеллекту контроля над ядерным оружием может спровоцировать глобальную катастрофу.

«Если бы искусственный интеллект контролировал ядерное оружие, все мы могли бы погибнуть. Военные всё чаще включают автономные функции в системы вооружения. Нет гарантии, что некоторые военные не поставят ИИ во главе ядерных пусков», — написал он.

Келленборн добавил, что в контексте ядерного оружия у властей может быть мало данных о военных платформах противника, а имеющаяся информация может быть структурно предвзятой и не учитывать ожидаемые изменения (как изображения, сделанные в дождливую или пасмурную погоду).

Обучение программ ядерного оружия на базе ИИ также является проблемой — ядерное оружие использовалось лишь дважды и реальных данных недостаточно, заключил эксперт.

С помощью ИИ, например, сегодня осуществляется управление американским ядерным бомбардировщиком B-21, российским ядерным беспилотником «Посейдон» и китайскими гиперзвуковыми ракетами.