Le Pentagone inscrit Anthropic sur sa «liste noire» : quelles conséquences pour les chaînes d'approvisionnement en IA et les contrats de défense ?

La décision du ministère de la Défense des États-Unis n'est pas simplement un conflit d'entreprise. C'est un signal pour le marché des technologies de défense, qui affecte l'accès à des services d'IA critiques et les stratégies des partenaires — y compris pour l'Ukraine.

63
Partager:
Фото: EPA / WILL OLIVER

En bref

Le ministère de la Défense des États-Unis a officiellement qualifié la société Anthropic de « menace pour la chaîne d'approvisionnement » après son refus de lever les restrictions sur l'utilisation militaire de son modèle Claude. La décision est entrée en vigueur immédiatement et s'applique également aux clients d'Anthropic dans le cadre de contrats avec le Pentagone — cela change la donne pour les fournitures d'IA à la défense.

Ce qui s'est passé

Selon l'Associated Press, le Pentagone a retiré Anthropic de la liste des fournisseurs approuvés parce que la société a refusé de lever deux restrictions : l'utilisation du modèle pour la surveillance intérieure de masse et pour les armes entièrement autonomes. Anthropic a déclaré qu'elle considère la décision comme illégale et qu'elle a l'intention de la contester en justice.

"Nous ne pensons pas et n'avons jamais pensé qu'Anthropic ou toute autre entreprise privée devait participer à la prise de décisions opérationnelles militaires — c'est le rôle des militaires. Nos seules réserves concernaient deux exceptions : les armes entièrement autonomes et la surveillance intérieure de masse..."

— Dario Amodei, directeur général d'Anthropic

Anthropic a signé un contrat avec le Pentagone de 200 millions de dollars en juillet 2025 ; Claude a été le premier IA autorisé à fonctionner dans les réseaux militaires classifiés des États-Unis. Quand les négociations se sont enlisé, les concurrents d'Anthropic — OpenAI et xAI (Elon Musk) — ont conclu des accords de coopération avec le Pentagone.

"Ils font preuve d'un profond respect pour la sécurité et d'une volonté de coopérer pour obtenir le meilleur résultat possible."

— Sam Altman, directeur général d'OpenAI (commentaire sur l'accord avec le Pentagone)

Pourquoi c'est important

La question n'est pas seulement juridique ou éthique : pour le Pentagone, il est crucial d'avoir des fournisseurs qui n'imposent pas de limites à l'utilisation de la technologie dans le cadre de toutes les tâches légitimes. Du point de vue de la logistique de défense, un fournisseur qui impose des restrictions techniques ou politiques crée des risques pour la flexibilité opérationnelle — depuis la planification des missions jusqu'à la capacité de réponse rapide aux menaces.

Le différend juridique entre Anthropic et le Pentagone peut créer un précédent : soit le gouvernement obtiendra un levier pour exiger un accès complet aux capacités des modèles commerciaux, soit les entreprises conserveront le droit de fixer des limites éthiques à l'utilisation de leurs produits. Les deux options auront des conséquences à long terme pour le marché de l'IA et les achats de défense.

Réactions du marché et alliances

La décision du Pentagone redessine déjà le marché : OpenAI et xAI comblent rapidement les lacunes en proposant une coopération sans les mêmes restrictions. Il ne s'agit pas simplement d'une concurrence pour des contrats — c'est un signal aux investisseurs et aux États sur les entreprises considérées comme « fiables » pour travailler dans des réseaux classifiés.

Ce que cela signifie pour l'Ukraine

Pour l'Ukraine, les conséquences clés sont les suivantes :

  • Accès aux capacités. Si les partenaires choisissent de plus en plus des fournisseurs prêts à lever des restrictions, cela influera sur les modèles et fonctionnalités disponibles dans les scénarios militaires et sur le rythme des mises à jour que l'on peut attendre.
  • Sécurité et responsabilité. Une adoption plus large de modèles plus « ouverts » renforce le besoin de mécanismes de contrôle, d'audits de vulnérabilités et de compatibilité avec nos systèmes — sur les plans technique et juridique.
  • Nécessité de diversification. Les intérêts ukrainiens gagneraient à développer des compétences internes et des partenariats avec des alliés, afin de ne pas dépendre d'un seul fournisseur ou de décisions géopolitiques qui peuvent évoluer rapidement.

Conclusion

Cette décision dépasse le simple scandale corporate : elle teste les frontières entre l'éthique des entreprises privées et les besoins opérationnels de la défense. La balle est maintenant dans le camp des tribunaux, du marché et des politiques — mais les partenaires, y compris l'Ukraine, feraient bien dès aujourd'hui de planifier leur réponse aux nouvelles réalités d'approvisionnement en IA : constituer des réserves, investir dans la compatibilité et développer des solutions propres. Cela aboutira-t-il à une normalisation stricte au nom de la sécurité — ou à une bataille pour le contrôle de l'éthique de l'IA ? La réponse déterminera quelles technologies, et avec quelles restrictions, se retrouveront sur le champ de bataille.

Actualités du monde