12 мая 2025 года исследователи Google Threat Intelligence Group (GTIG) опубликовали отчет, зафиксировавший то, что специалисты по кибербезопасности считали вопросом времени: хакерская группировка использовала большую языковую модель для разработки полноценного zero-day-эксплойта. Это первый подтвержденный случай такого рода.
Что именно произошло
Злоумышленники выявили ранее неизвестную уязвимость в популярном веб-инструменте с открытым кодом для администрирования систем — название продукта Google не раскрыла, но сообщила вендору и правоохранителям. Уязвимость позволяла обойти двухфакторную аутентификацию (2FA), хотя и требовала наличия действительных учетных данных.
Проблема возникла из-за ошибки разработчиков: в код была жестко вшита неэффективное доверительное исключение, которое противоречило логике защиты 2FA. Сам по себе этот логический дефект сложно выявить вручную — он не является классической ошибкой памяти или некорректной обработкой ввода. По оценке GTIG, именно здесь ИИ получил преимущество: современные LLM способны считывать намерение разработчика и находить противоречия между замыслом и реализацией.
Как GTIG установил участие ИИ
Исследователи проанализировали Python-скрипт и выявили характерные маркеры генерации LLM:
- Избыток учебных docstring-комментариев — типичная черта текста, порожденного языковой моделью
- «Галлюцинированный» CVSS-рейтинг уязвимости — число, которого не существует ни в одной официальной базе, но которое ИИ вставил как часть структурированного описания
- «Учебниковый» стиль Python-кода — форматирование, характерное для учебных материалов в тренировочных данных LLM
«Скрипт содержит большое количество учебных docstring-комментариев, включая галлюцинированный CVSS-балл, и использует структурированный учебниковый Python-формат, крайне характерный для тренировочных данных LLM»
— GTIG, отчет от 12 мая 2025
Google подчеркивает: Gemini в этой атаке задействован не был. Какую именно модель использовали хакеры — неизвестно. Но исследователи исключили возможность того, что код написан человеком без ИИ-ассистента.
Масштаб: что планировалось
Группировка координировалась заранее и готовила массовую операцию по эксплуатации уязвимости — не точечный взлом, а потенциально тысячи целей. GTIG удалось вмешаться на фазе активного развертывания. Параллельно исследователи зафиксировали, что другие известные группы — в частности китайская киберразведывательная группа UNC2814, которая с 2017 года атакует телекоммуникационные и государственные структуры более чем в 42 странах, — пытались взломать защитные фильтры Gemini с помощью jailbreak-подсказок, чтобы анализировать прошивки маршрутизаторов TP-Link и других встроенных устройств.
Как отмечает Джон Халткvist, главный аналитик GTIG: «Существует ошибочное представление, что гонка ИИ-уязвимостей еще впереди. На самом деле она уже началась».
Почему это важнее предыдущих инцидентов
До этого ИИ фиксировали как вспомогательный инструмент — для написания фишинговых писем, перевода документов или базового анализа кода. Нынешний случай иной: модель самостоятельно провела логический анализ архитектуры защиты и сформировала рабочий код для эксплуатации. GTIG прямо пишет, что LLM «читают намерение разработчика» и находят противоречия между замыслом и реализацией — класс уязвимостей, который ранее требовал глубокой экспертизы человека.
Если в следующий раз подобная операция не натолкнется на активный мониторинг — сколько систем успеют скомпрометировать до публичного раскрытия уязвимости?