Admin
Администратор
Китайские хакеры впервые провели почти полностью автоматизированную атаку с помощью Claude.
Они убеждали модель, что действуют от имени легальных компаний, проводящих аудит безопасности.
Китайские хакерские группировки, связанные с государством, задействовали искусственный интеллект Anthropic для проведения почти полностью автоматизированных взломов корпораций и правительственных структур в сентябре 2025 года. Об этом сообщает The Wall Street Journal со ссылкой на данные компании.
По словам главы отдела по анализу угроз Джейкоба Клейна, злоумышленники использовали большую языковую модель Claude для выполнения 80–90% всех действий — от первичного сканирования до извлечения данных — оставляя человеку лишь несколько контрольных точек, где требовалось подтвердить или скорректировать работу модели.
«Человек был задействован только в нескольких критических точках, говоря: «Да, продолжай», «Не продолжай», «Спасибо за эту информацию», «О, это выглядит неправильно, Claude, ты уверен?»», — рассказал Клейн.
Это первый случай такой глубокой автоматизации, отмечают в Anthropic. Обычно ИИ применяют на отдельных этапах, например, для генерации фишинговых писем или поиска уязвимостей. В данном же случае хакеры «буквально нажимали одну кнопку», после чего система самостоятельно выполняла почти весь цикл атаки, объяснил Клейн. Компания заблокировала их аккаунты, но до вмешательства успели состояться до четырех успешных атаки, включая эпизод, где ИИ самостоятельно запрашивал данные из внутренних баз.
Anthropic не раскрывает, какие именно организации стали целями, но подтверждает около 30 попыток взлома. В ряде случаев удалось похитить конфиденциальные данные. При этом компания утверждает, что ни одна из успешных атак не затронула правительство США.
Чтобы обойти встроенные ограничения Claude, хакеры использовали прием jailbreaking — они убеждали модель, что действуют от имени легальных компаний, проводящих аудит безопасности. Кроме того, они разбили атаку на маленькие «безобидные» задачи, каждая из которых по отдельности не вызывала подозрений.
Anthropic сообщил, что после инцидента ужесточила механизмы выявления злоупотреблений. В компании также подчеркнули, что злоумышленники не смогли бы провести полностью автономный взлом из-за называемых галлюцинаций ИИ. Claude мог сказать: «Мне удалось получить доступ к этой внутренней системе»», когда это было не так, — сказал Клейн о некоторых попытках взлома. — Он преувеличивал свой доступ и возможности, и это требовало проверки человеком».
Объединение хакерских задач в почти автономные атаки представляет собой новый шаг в растущей тенденции автоматизации, которая придает хакерам дополнительный масштаб и скорость, отмечает WSJ. Этим летом компания Volexity уже фиксировала, что китайские хакеры использовали большие языковые модели для выбора целей, подготовки фишинга и создания вредоносных программ. А на прошлой неделе Google сообщила о группе, связанной с российскими спецслужбами, которая применяла ИИ для генерации индивидуальных инструкций к вредоносному коду в реальном времени.
США неоднократно предупреждали, что Китай активно охотится за американскими ИИ-технологиями, стремясь использовать их для атак на компании и госучреждения. Китайское посольство в Вашингтоне заявило, что отслеживание кибератак «чрезвычайно сложно» и обвинило США в попытках очернить Пекин.