Ce qui s'est passé
Le directeur général d'OpenAI, Sam Altman, a fait part de son intention de renégocier le contrat avec le ministère de la Défense des États-Unis (le Pentagone). Le texte devrait inclure une clause qui interdirait explicitement l'utilisation des systèmes d'OpenAI pour la surveillance intérieure de masse des citoyens et des résidents des États-Unis.
Ce qui est proposé
Selon les principes annoncés, le document précisera que l'IA ne peut être utilisée délibérément pour la surveillance intérieure, le suivi ou la collecte de données personnelles à partir de sources commerciales d'une manière relevant d'une surveillance de masse. Ces restrictions devront être conformes à la Constitution américaine et à la législation nationale applicable.
"Je n'exécuterai pas d'ordres que je jugerai inconstitutionnels."
— Sam Altman, directeur général d'OpenAI
Ce que cela signifie pour les agences de renseignement
Altman a aussi déclaré que les services d'OpenAI ne devraient pas devenir automatiquement des outils pour les services de renseignement, y compris la National Security Agency (NSA), sans modifications contractuelles spécifiques. Cela signifie que l'utilisation des technologies de la société à des fins de surveillance intérieure nécessitera des étapes juridiques et procédurales supplémentaires.
Contexte du secteur
Parallèlement, d'autres acteurs du marché formulent eux aussi des positions sur l'utilisation de l'IA à des fins militaires et policières. Par exemple, la société Anthropic a précédemment annoncé qu'elle ne consentira pas à l'assouplissement des restrictions de ses modèles pour la surveillance de masse ni à la création d'armes entièrement autonomes. Dans ce contexte, le marché accorde de plus en plus d'attention à des règles transparentes et à la responsabilité des entreprises.
Le marché réagit également : l'application Claude a pris la tête du classement des applications gratuites sur l'App Store, tandis que les désinstallations de ChatGPT ont augmenté. Chez ChatGPT, des chiffres financiers ont été avancés — la note évoquait 110 milliards de dollars levés pour une valorisation de 730 milliards de dollars — et des mentions d'un nouveau forfait Pro Lite à 100 $ ont été trouvées dans le code du service.
Pourquoi cela importe pour l'Ukraine
La décision d'OpenAI d'établir des interdictions claires sur l'utilisation de ses systèmes pour la surveillance de masse n'est pas seulement une question de droit interne américain : c'est un précédent pour les pratiques mondiales de régulation de l'IA. Pour l'Ukraine, qui lutte pour la sécurité de l'information et la protection de ses citoyens en temps de guerre, il est important que les fournisseurs d'IA respectent des normes limitant les outils de répression et de contrôle de masse.
Résumé et perspectives
Si cette clause est inscrite dans le contrat, elle créera un précédent fort : les grands fournisseurs d'IA seront contraints de déclarer plus clairement les limites de leur coopération avec les autorités publiques. Cela augmente la transparence et offre des bases juridiques pour contester d'éventuels abus. Cependant, la question clé reste pratique : qui et par quel mécanisme contrôlera le respect de ces restrictions et deviendront-elles une norme pour les autres entreprises du secteur ?
Il revient maintenant aux législateurs, aux régulateurs et aux fournisseurs eux-mêmes : les déclarations se transformeront-elles en règles concrètes et vérifiables — et empêcheront-elles l'exportation de technologies susceptibles de menacer les libertés dans des pays où dominent des pratiques autoritaires ?