Хакеры сумели «приручить» Claude Code, чтобы автоматизировать атаки
19/11/2025
Впервые в истории киберпреступники использовали Claude Code от Anthropic — генеративный ИИ-помощник для кодирования — в проведении кибератак. В опубликованном на днях отчёте Anthropic говорится, что злоумышленники, вероятно, являются хакерами, спонсируемыми китайским государством, а целью атак был кибершпионаж.
Среди жертв оказались крупные техкомпании, финансовые организации, химические производственные предприятия и госучреждения. Их системы взломали при минимальном участии человека. По оценкам самого ИИ-вендора, Claude Code выполнил до 80–90% задач, при этом лишь четыре–шесть критически важных решений в каждой кампании принимались самими хакерами.
Сотрудники Anthropic обнаружили первые признаки высокотехнологичной шпионской операции в середине сентября. В ходе расследования инцидента ИБ-специалисты пришли к выводу, что злоумышленники использовали агентный ИИ для проникновения примерно в тридцать компаний. В небольшом числе случаев им это удалось. Anthropic описала инцидент как «первый задокументированный случай крупномасштабной кибератаки, осуществленной без существенного вмешательства человека».
Атакующие воспользовались недавно появившимися свойствами Claude Code — способностью ИИ-агентов следовать сложным инструкциям и понимать контекст, что позволяет выполнять очень сложные задачи; их доступом ко множеству программных инструментов и приложений; возможностью действовать от имени пользователей (например, для поиска в интернете, извлечения данных, анализа электронной почты); наконец, их навыком принимать автоматизированные (или полуавтономные) решения при выполнении задач и даже объединять их в цепочку.
При инициализации кампании оператор-человек выбрал целевые организации и разработал структуру атаки — сначала взломав Claude (обойдя обманным путём защитные барьеры и разбив атаку на небольшие, на первый взгляд невинные задачи). ИИ-помощник их выполнял, поскольку не имел полного представления о вредоносной цели.
После обнаружения инцидентов и их анализа Anthropic заблокировала вредоносные учётные записи, уведомила пострадавших лиц и связалась с компетентными органами. Вендор также расширил свои возможности обнаружения и разработал более совершенные классификаторы для выявления подобной активности. Несмотря на эти меры, эксперты выразили обеспокоенность тем, что акции с использованием агентного ИИ будут продолжать расти по объёму и сложности.
«Возникает важный вопрос: если модели ИИ могут быть использованы для кибератак такого масштаба, зачем продолжать их разработку и выпуск? Ответ заключается в том, что те самые возможности, которые позволяют использовать Claude в этих атаках, также делают его критически важным для киберзащиты», — резюмировали в Anthropic.