Grok a limité la génération d'images après le scandale des photos nues — ce que cela change pour la sécurité en ligne

X a désactivé la fonction de génération d'images dans Grok pour la plupart des utilisateurs et ne l'a rendue disponible qu'aux abonnés payants. Cette décision est une réponse à une vague de contenus sexualisés, mais soulève en même temps de nouvelles questions sur la vie privée, la responsabilité des plateformes et les possibilités pour les acteurs malveillants.

37
Partager:

Ce qui s'est passé

Le réseau social X (anciennement Twitter) d'Elon Musk a temporairement désactivé la fonction de génération d'images de son chatbot Grok pour la plupart des utilisateurs. Selon The Guardian, le service a laissé l'accès à la création d'images uniquement aux abonnés dont le paiement a été confirmé — cela permet d'identifier les auteurs d'abus.

"C'est illégal et inacceptable."

— Keir Starmer, Premier ministre du Royaume‑Uni

Pourquoi cela s'est produit

Fin décembre, des milliers d'images sexualisées ont été générées via Grok, principalement des photographies de femmes nues. Face à l'indignation publique et à l'attention des régulateurs (notamment Ofcom au Royaume‑Uni), X a pris des mesures opérationnelles pour montrer sa réaction aux risques et éviter des conséquences juridiques.

"Des outils externes à la plateforme — comme l'application distincte Grok Imagine — ont servi à créer plus de 800 images et vidéos à contenu pornographique et violent."

— AI Forensics, équipe d'analyse

Ce que cela signifie pour l'utilisateur

Responsabilité versus vie privée. Le transfert d'un accès aux abonnements payants augmente la traçabilité — les données de paiement peuvent être utilisées pour identifier les auteurs des abus. Mais cela soulève aussi des questions sur la protection des données et les risques d'abus de la part des plateformes.

Voies de contournement. Même après les restrictions sur X, des utilisateurs continuent de générer du contenu dangereux via des outils tiers, comme Grok Imagine. Cela montre que la modération partielle sur une seule plateforme ne résout pas le problème à l'échelle mondiale.

Hygiène numérique et menaces. Selon des enquêtes, des hackers ont utilisé ChatGPT, Grok et la recherche Google pour propager des logiciels malveillants — un autre signal que les modèles d'IA peuvent devenir des éléments de l'arsenal des cybermenaces.

Contexte pour l'Ukraine

Pour notre pays, ce n'est pas seulement une affaire technologique : les deepfakes sexualisés capables de discréditer des personnes, et l'utilisation de l'IA dans des cyberattaques, constituent une menace réelle pour la sécurité de l'information et la sécurité personnelle des citoyens. Les médias ukrainiens et les forces de l'ordre doivent prendre en compte que les menaces proviennent à la fois des plateformes et d'outils tiers.

Conclusion

La décision de X est un signal : les plateformes peuvent réagir rapidement sous la pression des régulateurs et de l'opinion publique. Mais attendre la réaction des grandes entreprises est risqué. Des actions synchronisées sont nécessaires : filtres techniques, règles plus strictes pour les développeurs de modèles, coordination internationale des régulateurs et soutien aux victimes. Suffira‑t‑il pour devancer les malfaiteurs ? La question reste ouverte, et la réponse dépendra de la rapidité avec laquelle la société et les autorités transformeront les paroles en outils efficaces.

Actualités du monde