Claude Opus 4.6 entdeckte 22 Schwachstellen in Firefox – Lektion für die Cybersicherheit von Software und die ukrainische Verteidigung

Ein Experiment von Anthropic und Mozilla hat gezeigt, dass KI schnell kritische Fehler finden kann — das ist sowohl eine Chance als auch eine Warnung bezüglich des Dual-Use solcher Technologien.

152
Aktie:
Ілюстративне фото: Depositphotos

Ergebnis des Experiments

Das Unternehmen Anthropic hat in Zusammenarbeit mit Mozilla einen Test gestartet, bei dem das Modell Claude Opus 4.6 den Code des Browsers Firefox analysierte. Innerhalb von zwei Wochen entdeckte die KI 22 Schwachstellen, von denen 14 als kritisch eingestuft wurden. Ein Teil der gefundenen Probleme wurde bereits im Update Firefox 148 (Februar) behoben.

Wesentliche Details

Das Modell begann mit der Analyse des Codes und fand in weniger als 20 Minuten einen Fehler des Typs use-after-free in einer Komponente, die mit der Ausführung von JavaScript zusammenhängt. Im Verlauf der Analyse durchlief Claude etwa 6000 C++-Dateien und sandte über 100 Berichte an das Mozilla-Team.

Anthropic testete auch die Möglichkeit, Exploits — speziellen Code zur Ausnutzung der gefundenen Schwachstellen — zu erstellen. Trotz hunderter Tests und rund 4.000 US-Dollar an API-Kosten gelang es nur in zwei Fällen, funktionierende Exploits zu entwickeln.

"Die Ergebnisse zeigen, dass KI zu einem mächtigen zusätzlichen Werkzeug für die kontinuierliche Überwachung der Sicherheit komplexer Software werden kann, aber klare Nutzungsregeln und Kontrollen benötigt"

— Forscher von Anthropic

"Die meisten gefundenen Probleme wurden bereits im Update Firefox 148 behoben"

— ein Sprecher von Mozilla

Risiken und Einschränkungen

Das Experiment brachte zwei zentrale Erkenntnisse zutage. Erstens kann KI die Suche nach Schwachstellen deutlich beschleunigen und den Aufwand für Code-Reviews reduzieren. Zweitens ist die technische Fähigkeit ambivalent: dieselbe KI, die beim Schließen von Bugs hilft, könnte potenziell auch bei der Erstellung von Exploits unterstützen. In diesem Zusammenhang sind nicht nur technische Ergebnisse wichtig, sondern auch Zugangsregelungen, Audits und Kontrollen für die Nutzung der Modelle.

Auf regulatorischer Ebene kommt eine geopolitische Dimension hinzu: Das Modell Claude wurde auf die "Schwarze Liste" des Pentagons gesetzt, und es gab Berichte, dass einige chinesische Unternehmen ihre eigenen Modelle mit Claude trainiert haben, ohne die Zustimmung von Anthropic. Dies hebt Probleme des geistigen Eigentums und die Risiken der Verbreitung von Technologie ohne Kontrolle hervor.

Was das für die Ukraine bedeutet

Erstens ist dies ein Signal an ukrainische Entwickler und staatliche Stellen: in KI-basierte Werkzeuge zur Suche nach Schwachstellen zu investieren ist vernünftig und wirkungsvoll. Zweitens muss das prognostizierte zunehmende Bereitstehen solcher Werkzeuge in den Händen von Gegnern berücksichtigt werden: die Automatisierung der Fehlersuche könnte Cyberangriffe auf kritische Infrastruktur beschleunigen. Schließlich ist es ein Argument für internationale Zusammenarbeit im Bereich Cybersicherheit sowie für klare Regeln zur Weitergabe und Nutzung von Modellen.

Fazit

Das Experiment von Anthropic und Mozilla ist ein Beispiel dafür, wie künstliche Intelligenz die Praxis der Softwaresicherheit verändern kann: Probleme schneller zu erkennen, aber zugleich neue Herausforderungen für Kontrolle und Ethik zu schaffen. Für die Ukraine bietet sich damit die Chance, den Schutz der digitalen Infrastruktur zu stärken, gleichzeitig erinnert es an die Notwendigkeit einer Politik, die Nützliches vom Gefährlichen trennt.

Weltnachrichten

Politik

In der großen Diplomatie zählen nicht laute Erklärungen, sondern stille Entscheidungen. Das Briefing des Weißen Hauses und die Besorgnis der Demokraten über die Verlegung von Streitkräften in der Region haben direkte Folgen für die Energiemärkte und die sicherheitspolitische Aufmerksamkeit der USA — wir analysieren, warum das gerade jetzt wichtig ist.

41 Minute vor