Was passiert ist
Anthropic gab bekannt, dass drei chinesische Unternehmen — DeepSeek, Moonshot und MiniMax — die Antworten ihres Chatbots Claude als Trainingsdaten für eigene Modelle verwendet haben. Der Mechanismus wird als Distillation bezeichnet: Ein weniger leistungsfähiges System „lernt“ aus den Antworten eines weiter entwickelten Modells.
Anthropic zufolge ist das Ausmaß groß: mehr als 13 Mio. Anfragen entfallen auf MiniMax, Moonshot – mehr als 3,4 Mio., DeepSeek – etwa 150.000. Insgesamt wurden über 16 Mio. Anfragen registriert, die über ungefähr 24.000 gefälschte Konten ausgeführt wurden.
Warum das wichtig ist
Auf den ersten Blick geht es um Fragen von Lizenzen und geistigem Eigentum. Eine gravierendere Gefahr ist jedoch das Umgehen von Schutzmechanismen und die Reproduktion des Verhaltens eines Modells ohne Qualitätskontrolle und Beschränkungen. Ermöglicht das Ökosystem die massenhafte „Übertragung“ von Wissen großer Modelle in kleinere, so verbreiten sich Funktionen, die zuvor von einer kleinen Gruppe von Entwicklern kontrolliert wurden, sehr schnell.
Für die Ukraine bedeutet das zwei praktische Bedrohungen: Erstens die beschleunigte Verbreitung von Werkzeugen, die für Desinformation oder Cyberoperationen eingesetzt werden können; zweitens eine Gefahr für die nationale digitale Souveränität, wenn zentrale Fähigkeiten ohne Einhaltung von Sicherheitsstandards reproduziert werden.
Wie Anthropic reagiert hat
Das Unternehmen hat die Überwachung verdächtiger Aktivitäten verstärkt, eine strengere Verifizierung von Konten eingeführt und zusätzliche Beschränkungen eingeführt, um groß angelegte Distillation zu erschweren. Derzeit bleibt Claude (einschließlich des Modells Sonnet 4.6) für Nutzer zugänglich, jedoch mit verstärkten Schutzfiltern.
"Wir sind der Ansicht, dass dies ein systematischer Versuch war, Zugang zu den Fähigkeiten des Modells zu erhalten und diese als Trainingsdaten zu nutzen, wodurch bestehende Sicherheitsbeschränkungen umgangen werden könnten."
— Presseabteilung von Anthropic
Was als Nächstes kommt: Regulierung, Technologie, Partnerschaften
Die KI-Industrie diskutiert bereits zwei Schutzwege: technische (z. B. Wasserzeichen in Antworten, API-Beschränkungen, verbesserte Verifizierung der Nutzer) und regulatorische (einheitliche Regeln für den Zugang zu großen Modellen und Sanktionen bei Missbrauch). Experten betonen, dass Lösungen international sein müssen — alleinige Maßnahmen einzelner Unternehmen werden das Problem nicht lösen.
Für die Ukraine ist das eine Mahnung, in nationale KI-Kapazitäten, Cybersicherheitsstandards und die Teilnahme an internationalen Abkommen über die verantwortungsvolle Nutzung von Technologien zu investieren.
Fazit
Der Vorfall mit Claude ist nicht nur ein Skandal um kommerzielle Rechte. Er zeigt, wie schnell Wissen aus großen Modellen außerhalb der Kontrolle verbreitet werden kann und welche Folgen das für Sicherheit und Souveränität haben kann. Nun sind Regulierungsbehörden, Industrie und Staaten gefragt, die ihre digitalen Interessen schützen wollen. Ob Zeit und Instrumente dafür ausreichen — bleibt offen.