ИБ-эксперты опасаются, что киберпреступники будут всё чаще использовать ИИ в своих целях. И речь скорее об автоматизированных и многоступенчатых атаках.
По данным организации Darktrace (опиравшейся на данные собственной клиентской базы), с мая по июль 2023 года число фишинговых писем, распространяющихся с помощью продвинутых методов социнженерии, выросло на 59%. Схема, заложенная в эти сообщения, подталкивает потенциальную жертву к выполнению последовательности действий перед доставкой малвари или кражей конфиденциальных данных.
На 135% чаще стали фиксироваться атаки, где социнженерия основывается на языковых моделях вроде ChatGPT — те умело общаются с пользователями на любые темы и грамотно отвечают на вопросы.
Ещё один след ИИ в кибератаках — это «квишинг» (фишинг) с использованием QR-кодов. Он автоматизирует процесс, чем существенно облегчает задачу хакерам.
«Злоумышленники обычно корректируют и адаптируют свои техники, когда они становятся неэффективными, но генеративный ИИ — особенно дипфейки — может улучшить процесс», — прокомментировал статистику технологический директор Darktrace Джек Стокдейл. Он также упомянул развитие коммуникативных навыков чат-ботов и реалистичную имитацию человеческого голоса, как факторы, на которые стоит обратить внимание в этом поле.