Ce qui s'est passé
Le réseau social X (anciennement Twitter) d'Elon Musk a temporairement désactivé la fonction de génération d'images de son chatbot Grok pour la plupart des utilisateurs. Selon The Guardian, le service a laissé l'accès à la création d'images uniquement aux abonnés dont le paiement a été confirmé — cela permet d'identifier les auteurs d'abus.
"C'est illégal et inacceptable."
— Keir Starmer, Premier ministre du Royaume‑Uni
Pourquoi cela s'est produit
Fin décembre, des milliers d'images sexualisées ont été générées via Grok, principalement des photographies de femmes nues. Face à l'indignation publique et à l'attention des régulateurs (notamment Ofcom au Royaume‑Uni), X a pris des mesures opérationnelles pour montrer sa réaction aux risques et éviter des conséquences juridiques.
"Des outils externes à la plateforme — comme l'application distincte Grok Imagine — ont servi à créer plus de 800 images et vidéos à contenu pornographique et violent."
— AI Forensics, équipe d'analyse
Ce que cela signifie pour l'utilisateur
Responsabilité versus vie privée. Le transfert d'un accès aux abonnements payants augmente la traçabilité — les données de paiement peuvent être utilisées pour identifier les auteurs des abus. Mais cela soulève aussi des questions sur la protection des données et les risques d'abus de la part des plateformes.
Voies de contournement. Même après les restrictions sur X, des utilisateurs continuent de générer du contenu dangereux via des outils tiers, comme Grok Imagine. Cela montre que la modération partielle sur une seule plateforme ne résout pas le problème à l'échelle mondiale.
Hygiène numérique et menaces. Selon des enquêtes, des hackers ont utilisé ChatGPT, Grok et la recherche Google pour propager des logiciels malveillants — un autre signal que les modèles d'IA peuvent devenir des éléments de l'arsenal des cybermenaces.
Contexte pour l'Ukraine
Pour notre pays, ce n'est pas seulement une affaire technologique : les deepfakes sexualisés capables de discréditer des personnes, et l'utilisation de l'IA dans des cyberattaques, constituent une menace réelle pour la sécurité de l'information et la sécurité personnelle des citoyens. Les médias ukrainiens et les forces de l'ordre doivent prendre en compte que les menaces proviennent à la fois des plateformes et d'outils tiers.
Conclusion
La décision de X est un signal : les plateformes peuvent réagir rapidement sous la pression des régulateurs et de l'opinion publique. Mais attendre la réaction des grandes entreprises est risqué. Des actions synchronisées sont nécessaires : filtres techniques, règles plus strictes pour les développeurs de modèles, coordination internationale des régulateurs et soutien aux victimes. Suffira‑t‑il pour devancer les malfaiteurs ? La question reste ouverte, et la réponse dépendra de la rapidité avec laquelle la société et les autorités transformeront les paroles en outils efficaces.