Grok schränkt die Bildgenerierung nach einem Skandal um Nacktfotos ein – was das für die Online‑Sicherheit ändert

X hat die Bildgenerierungsfunktion von Grok für die meisten Nutzer deaktiviert und sie ausschließlich zahlenden Abonnenten erlaubt. Diese Entscheidung ist eine Reaktion auf eine Welle sexualisierter Inhalte, wirft aber zugleich neue Fragen zu Privatsphäre, zur Verantwortung von Plattformen und zu den Möglichkeiten böswilliger Akteure auf.

37
Aktie:

Was passiert ist

Das soziale Netzwerk X (ehemals Twitter) von Elon Musk hat die Bildgenerierungsfunktion in seinem eigenen Chat‑Bot Grok vorübergehend für die Mehrheit der Nutzer deaktiviert. Laut The Guardian hat der Dienst den Zugang zur Erstellung von Bildern nur für zahlende Abonnenten mit bestätigter Bezahlung freigelassen — das ermöglicht die Identifizierung der für Missbrauch Verantwortlichen.

"Das ist illegal und inakzeptabel."

— Keir Starmer, Premierminister des Vereinigten Königreichs

Warum das geschah

Ende Dezember wurden über Grok Tausende sexualisierter Bilder generiert, überwiegend mit Nacktfotos von Frauen. Vor dem Hintergrund öffentlicher Empörung und der Aufmerksamkeit von Regulierungsbehörden (insbesondere Ofcom im Vereinigten Königreich) ergriff X operative Beschränkungen, um auf die Risiken zu reagieren und rechtliche Folgen zu vermeiden.

"Außerhalb der Plattform — etwa mit der eigenständigen App Grok Imagine — wurden über 800 Bilder und Videos mit pornografischem und gewalttätigem Inhalt erstellt."

— AI Forensics, ein analytisches Team

Was das für Nutzer bedeutet

Verantwortung versus Privatsphäre. Die Verlagerung des Zugangs auf kostenpflichtige Abonnements erhöht die Nachverfolgbarkeit — Zahlungsdaten können zur Identifizierung der Täter genutzt werden. Gleichzeitig wirft das Fragen zum Datenschutz und zu möglichen Missbräuchen durch die Plattformen auf.

Umgehungsmöglichkeiten. Auch nach den Beschränkungen auf X erzeugen Nutzer weiterhin gefährliche Inhalte über Drittanbieter‑Tools wie Grok Imagine. Das zeigt: Teilmoderation auf einer Plattform löst das Problem nicht global.

Cyber‑Hygiene und Bedrohungen. Untersuchungen zufolge nutzten Hacker ChatGPT, Grok und die Google‑Suche zur Verbreitung von Malware — ein weiteres Indiz dafür, dass KI‑Modelle Teil des Werkzeugkastens von Cyberbedrohungen werden können.

Kontext für die Ukraine

Für unser Land ist das nicht nur eine technologische Angelegenheit: sexualisierte Deepfakes, die Menschen diskreditieren können, und der Einsatz von KI in Cyberangriffen stellen eine reale Bedrohung für die Informationssicherheit und die persönliche Sicherheit der Bürger dar. Ukrainische Medien und Strafverfolgungsbehörden müssen berücksichtigen, dass die Bedrohungen sowohl von Plattformen als auch über Drittanbieter‑Tools ausgehen.

Fazit

Die Entscheidung von X ist ein Signal: Plattformen können unter Druck von Regulierungsbehörden und Öffentlichkeit schnell reagieren. Aber darauf zu hoffen, dass große Unternehmen reagieren, ist riskant. Es bedarf synchroner Maßnahmen: technischer Filter, strengere Regeln für Modellentwickler, internationale Koordination der Regulierungsbehörden und Unterstützung der Opfer. Ob dies ausreicht, um den Tätern einen Schritt voraus zu sein, ist offen — die Antwort hängt davon ab, wie schnell Gesellschaft und Behörden Worte in wirksame Instrumente verwandeln.

Weltnachrichten