OpenAI überprüft Vertrag mit dem Pentagon — ausdrückliches Verbot der Massenüberwachung und warum das wichtig ist

Sam Altman kündigte an, eine Klausel in den Vertrag mit dem US-Verteidigungsministerium aufzunehmen, die die Nutzung von OpenAI‑Systemen für massenhafte inländische Überwachung ausdrücklich verbietet. Wir beleuchten, welche rechtlichen und geopolitischen Folgen das für Bürgerrechte und für Länder hat, die die Entwicklung der KI beobachten — insbesondere für die Ukraine.

81
Aktie:
Ілюстративне фото: Depositphotos

Was passiert ist

Der Geschäftsführer von OpenAI, Sam Altman, kündigte an, den Vertrag mit dem US-Verteidigungsministerium (Pentagon) überprüfen zu wollen. Dem Text soll eine Klausel hinzugefügt werden, die die Nutzung von OpenAI-Systemen für massenhafte innerstaatliche Überwachung von US-Bürgern und Ansässigen ausdrücklich verbietet.

Was genau vorgeschlagen wird

Nach den angekündigten Grundsätzen soll im Dokument festgehalten werden, dass KI nicht absichtlich für innerstaatliche Überwachung, Nachverfolgung oder die Erhebung personenbezogener Daten aus kommerziellen Quellen in einer Weise verwendet werden darf, die als Massenüberwachung zu qualifizieren ist. Die Beschränkungen sollen mit der US-Verfassung und dem einschlägigen nationalen Recht in Einklang stehen.

„Ich werde keine Befehle ausführen, die ich für verfassungswidrig halte.“

— Sam Altman, CEO von OpenAI

Was das Geheimdienste betrifft

Altman erklärte zudem, dass die Dienste von OpenAI nicht automatisch zum Instrument von Geheimdiensten, einschließlich der National Security Agency (NSA), werden dürften, ohne dass der Vertrag entsprechend angepasst wird. Das bedeutet, dass die Nutzung der Technologien des Unternehmens für innerstaatliche Überwachung zusätzliche rechtliche und verfahrenstechnische Schritte erfordern würde.

Branchkontext

Parallel dazu formulieren auch andere Marktteilnehmer Positionen zur Verwendung von KI für militärische und polizeiliche Zwecke. So hatte das Unternehmen Anthropic zuvor erklärt, es werde nicht zustimmen, die Beschränkungen seiner Modelle für Massenüberwachung oder die Entwicklung vollständig autonomer Waffen zu lockern. Vor diesem Hintergrund wächst die Aufmerksamkeit für transparente Regeln und unternehmerische Verantwortung.

Auch der Markt reagiert: Die App Claude führte die Rangliste der kostenlosen Programme im App Store an, während die Zahl der Deinstallationen von ChatGPT zunahm. Bei ChatGPT wurden finanzielle Kennzahlen genannt — in einem veröffentlichten Überblick war von eingesammelten Mitteln in Höhe von 110 Mrd. USD bei einer Bewertung von 730 Mrd. USD die Rede — und im Code des Dienstes fanden sich Hinweise auf ein neues Pro‑Lite‑Abo für 100 USD.

Warum das für die Ukraine wichtig ist

Die Entscheidung von OpenAI, klare Verbote für die Nutzung seiner Systeme zur Massenüberwachung zu formulieren, ist nicht nur eine Frage des inneramerikanischen Rechts: Sie stellt einen Präzedenzfall für die globale Praxis der KI‑Regulierung dar. Für die Ukraine, die im Krieg um Informationssicherheit und den Schutz der Bürger kämpft, ist es wichtig, dass KI‑Anbieter Normen einhalten, die Werkzeuge der Repression und des massenhaften Kontrolls einschränken.

Zusammenfassung und Prognose

Wird die Bestimmung vertraglich verankert, schafft das einen starken Präzedenzfall: Große KI‑Anbieter wären gezwungen, die Grenzen ihrer Zusammenarbeit mit staatlichen Stellen klarer zu deklarieren. Das erhöht die Transparenz und bietet rechtliche Grundlagen, um potenzielle Missbräuche anzufechten. Entscheidend bleibt jedoch die praktische Frage: wer und mit welchem Mechanismus die Einhaltung dieser Beschränkungen überwachen wird — und ob sie zum Standard für andere Unternehmen der Branche werden.

Nun sind die Gesetzgeber, Regulierungsbehörden und die Anbieter selbst am Zug: Werden die Erklärungen in konkrete, überprüfbare Regeln umgesetzt — und werden sie den Export von Technologien verhindern, die in Ländern mit autoritären Praktiken die Freiheiten bedrohen könnten?

Weltnachrichten