Ce qui s'est passé
Anthropic a indiqué que trois entreprises chinoises — DeepSeek, Moonshot et MiniMax — ont utilisé les réponses de son chatbot Claude comme données d'entraînement pour leurs propres modèles. Le mécanisme est appelé distillation : un système moins puissant « apprend » à partir des réponses d'un système plus avancé.
Selon Anthropic, le volume d'activité est important : plus de 13 millions de requêtes concernent MiniMax, Moonshot — plus de 3,4 millions, DeepSeek — environ 150 000. Au total, plus de 16 millions de requêtes ont été enregistrées, émises via environ 24 000 comptes factices.
Pourquoi c'est important
À première vue — il s'agit d'une question de licences et de propriété intellectuelle. Mais le risque plus significatif est le contournement des mécanismes de protection et la reproduction du comportement du modèle sans contrôle qualité ni limitations. Si l'écosystème permet le transfert massif des connaissances des grands modèles vers des plus petits, on assiste à une diffusion rapide de fonctionnalités qui étaient auparavant contrôlées par un nombre restreint de développeurs.
Pour l'Ukraine, cela signifie deux menaces concrètes : d'une part, la propagation accélérée d'outils susceptibles d'être utilisés pour la désinformation ou des cyberopérations ; d'autre part, une menace pour la souveraineté numérique nationale si des capacités clés sont reproduites sans respect des normes de sécurité.
Comment Anthropic a réagi
La société a renforcé la surveillance des activités suspectes, instauré une vérification plus stricte des comptes et introduit des restrictions supplémentaires pour rendre la distillation à grande échelle plus difficile. Pour l'instant Claude (y compris le modèle Sonnet 4.6) reste accessible aux utilisateurs, mais avec des filtres de protection renforcés.
"Nous estimons qu'il s'agissait d'une tentative systémique d'accéder aux capacités du modèle et de les utiliser comme données d'entraînement, ce qui pourrait contourner les restrictions de sécurité existantes."
— le service de presse d'Anthropic
Quelles suites : régulation, technologies, partenariats
L'industrie de l'IA discute déjà de deux axes de protection : techniques (par exemple, filigranes sur les réponses, limitation des API, amélioration de la vérification des utilisateurs) et réglementaires (règles unifiées d'accès aux grands modèles et sanctions en cas d'abus). Les experts soulignent que les solutions doivent être internationales — les actions isolées de quelques entreprises ne résoudront pas le problème.
Pour l'Ukraine, c'est un rappel de la nécessité d'investir dans des capacités nationales en IA, des standards de cybersécurité et la participation aux accords internationaux sur l'utilisation responsable des technologies.
Conclusion
L'incident autour de Claude n'est pas simplement un scandale lié aux droits commerciaux. C'est une démonstration de la rapidité avec laquelle les connaissances des grands modèles peuvent se propager hors du contrôle et des conséquences possibles pour la sécurité et la souveraineté. La balle est désormais dans le camp des régulateurs, de l'industrie et des États qui cherchent à protéger leurs intérêts numériques. Le temps et les outils seront-ils suffisants ? La question reste ouverte.