L'IA a écrit le premier zero-day-exploit : Google a enregistré l'attaque que la communauté cybernétique prédisait depuis longtemps

Le groupe Google Threat Intelligence a identifié le premier cas confirmé d'une cyberattaque où des pirates informatiques ont utilisé l'intelligence artificielle pour créer un exploit zero-day fonctionnel — un script Python contournant l'authentification à deux facteurs. L'attaque de masse a pu être stoppée, mais un précédent a d'ores et déjà été établi.

60
Partager :
Ілюстративне фото: Depositphotos

Le 12 mai 2025, les chercheurs du Google Threat Intelligence Group (GTIG) ont publié un rapport documentant ce que les experts en cybersécurité considéraient comme inévitable : un groupe de pirates informatiques a utilisé un grand modèle de langage pour développer un véritable exploit zero-day. Il s'agit du premier cas confirmé de ce type.

Ce qui s'est exactement passé

Les cybercriminels ont découvert une vulnérabilité précédemment inconnue dans un populaire outil web open source pour l'administration des systèmes — Google n'a pas révélé le nom du produit, mais a informé le fournisseur et les autorités. La vulnérabilité permettait de contourner l'authentification à deux facteurs (2FA), bien qu'elle nécessite la possession d'identifiants valides.

Le problème provenait d'une erreur des développeurs : le code contenait une exception de confiance inefficace codée en dur, qui contredisait la logique de protection de la 2FA. Ce défaut logique en soi est difficile à détecter manuellement — ce n'est pas une erreur classique de mémoire ou un traitement incorrect des données. Selon l'évaluation du GTIG, c'est précisément ici que l'IA a gagné en avantage : les LLM modernes sont capables de déchiffrer l'intention du développeur et de trouver des contradictions entre le design et l'implémentation.

Comment le GTIG a établi la participation de l'IA

Les chercheurs ont analysé le script Python et ont identifié des marqueurs caractéristiques de la génération par LLM :

  • Excès de docstrings pédagogiques — trait typique du texte généré par un modèle de langage
  • Une notation CVSS « hallucinée » — un chiffre qui n'existe dans aucune base de données officielle, mais que l'IA a inséré comme partie d'une description structurée
  • Un style Python « manuel » — formatage caractéristique des matériels pédagogiques dans les données d'entraînement des LLM

« Le script contient un grand nombre de docstrings pédagogiques, y compris un score CVSS halluciné, et utilise un format Python structuré et pédagogique, extrêmement caractéristique des données d'entraînement des LLM »

— GTIG, rapport du 12 mai 2025

Google souligne : Gemini n'a pas été impliqué dans cette attaque. Le modèle exact utilisé par les pirates reste inconnu. Cependant, les chercheurs ont exclu la possibilité que le code ait été écrit par un humain sans assistant IA.

L'ampleur : ce qui était prévu

Le groupe s'était coordonné à l'avance et préparait une opération à grande échelle d'exploitation de la vulnérabilité — non pas une attaque ciblée, mais potentiellement des milliers de cibles. Le GTIG a pu intervenir avant la phase de déploiement actif. Parallèlement, les chercheurs ont enregistré que d'autres groupes connus — notamment le groupe de renseignement chinois UNC2814, qui attaque depuis 2017 les structures de télécommunications et gouvernementales dans plus de 42 pays — tentaient de contourner les filtres de protection de Gemini à l'aide de prompts de jailbreak pour analyser les micrologiciels des routeurs TP-Link et autres appareils embarqués.

Comme l'a noté Jon Hultquist, principal analyste du GTIG : « Il existe une fausse conception selon laquelle la course aux vulnérabilités de l'IA est encore à venir. En réalité, elle a déjà commencé ».

Pourquoi c'est plus important que les incidents précédents

Auparavant, l'IA était documentée comme un outil auxiliaire — pour la rédaction de courriels d'hameçonnage, la traduction de documents ou l'analyse basique du code. Le cas actuel est différent : le modèle a effectué de manière autonome une analyse logique de l'architecture de protection et a généré un code fonctionnel pour l'exploitation. Le GTIG écrit clairement que les LLM « déchiffrent l'intention du développeur » et trouvent des contradictions entre le design et l'implémentation — une classe de vulnérabilités qui auparavant nécessitait l'expertise approfondie d'un humain.

Si la prochaine fois une opération similaire n'est pas détectée par un contrôle actif — combien de systèmes seront compromis avant la révélation publique de la vulnérabilité ?

Actualités mondiales