DeepSeek V4 Pro: 1,6 Billionen Parameter zum Preis, der OpenAIs Geschäftsmodell zerstört

Das chinesische Labor DeepSeek hat zwei Modelle mit offenen Gewichtungen und einer Unterstützung von 1 Million Token veröffentlicht – und das zu einem Preis von 1,74 Dollar pro Million Token bei der Eingabe, während Konkurrenten das Zehnfache berechnen.

84
Teilen:
Ілюстративне фото: Depositphotos

Am 24. April 2026 veröffentlichte DeepSeek Preview-Versionen zweier Modelle der V4-Serie — DeepSeek-V4-Pro und DeepSeek-V4-Flash. Beide unterstützen ein Kontextfenster von bis zu 1 Million Token und werden unter der MIT-Lizenz vertrieben, was bedeutet, dass jeder sie herunterladen, ändern und kommerziell einsetzen kann.

Was steckt drin

V4-Pro verfügt über 1,6 Billionen Parameter mit 49 Milliarden aktiven Parametern. Flash hat 284 Milliarden Parameter insgesamt und 13 Milliarden aktive. Beide basieren auf der Mixture-of-Experts-Architektur: Das Modell aktiviert nicht alle Parameter gleichzeitig, was die Inferenzkosten erheblich senken kann. Nach Angaben von Hugging Face benötigt V4-Pro in einem Szenario mit 1 Million Token Kontext nur 27% der Rechenleistung von DeepSeek-V3.2 und 10% der KV-Cache-Größe des Vorgängers.

Technisch wird dies durch Hybrid Attention erreicht — eine Kombination aus Compressed Sparse Attention und Heavily Compressed Attention, die die Effizienz bei langen Kontexten erheblich verbessert. Für einen Entwickler oder Analysten bedeutet dies, dass das Modell einen Roman, eine Codebasis oder einen Dokumentenkorpus in einer einzigen Anfrage verarbeiten kann.

Benchmarks: Wo es überlegen ist, wo es zurückfällt

In der Praxis übertrifft V4-Pro Claude Opus 4.6 bei Terminal-Bench 2.0 (67,9% gegenüber 65,4%) — einem Benchmark für echte autonome Befehlsausführung mit dreibstündiger Zeitvorgabe — und führt deutlich bei LiveCodeBench (93,5% gegenüber 88,8%). Claude behält jedoch einen Vorteil bei SWE-bench Verified (80,8% gegenüber 80,6%) und einen deutlicheren Vorteil bei Tests für Faktualgenauigkeit HLE und der mathematischen Prüfung HMMT 2026, laut buildfastwithai.com.

«V4 bietet GPT-5-ähnliche Leistung zu etwa 1/10 des Preises»

NxCode, analytischer Überblick der DeepSeek-API-Preispolitik, April 2026

Nach Angaben des unabhängigen Forschers Simon Willison, der beide Modelle über OpenRouter testete, ist V4-Pro das größte offene Modell derzeit — größer als Kimi K2.6 (1,1T) und GLM-5.1 (754B) und doppelt so groß wie der Vorgänger DeepSeek V3.2 (685B).

Die Preisgestaltung, die die Gleichung verändert

DeepSeek setzte folgende API-Tarife fest: Flash — 0,14 USD pro Million Token bei der Eingabe und 0,28 USD bei der Ausgabe; Pro — 1,74 USD und 3,48 USD. Zum Vergleich: V4-Flash kostet 12,4-mal weniger als Pro, wobei es bei SWE-bench Verified nur um 1,6 Prozentpunkte zurückfällt (79,0% gegenüber 80,6%).

Für ein Unternehmen, das einen Agent-Workflow aufbaut — beispielsweise automatisierte Code-Überprüfung oder die Analyse von Tausenden von Dokumenten täglich — ist der Unterschied in den Token-Kosten keine akademische Frage, sondern eine Budgetposition. Analysten von NxCode berechneten, dass DeepSeeks R1 27-mal günstiger ist als ein vergleichbares Reasoning-Modell von OpenAI. V4 setzt diese Logik fort.

Das Brookings Institution dokumentierte Anfang 2025 nach der Veröffentlichung von DeepSeek-R1 einen breiteren strukturellen Effekt: DeepSeek bewies, dass bahnbrechende Modelle nicht nur von Big Tech mit unbegrenztem Budget gebaut werden können, sondern von Teams, die offene Entwicklungen systematisch optimieren. Das Unternehmen entstand aus einem Hedgefonds, der KI für Handelsentscheidungen nutzte — und genau die Fähigkeit zur technischen Optimierung, nicht rohes Kapital, wurde zu seinem Wettbewerbsvorteil.

Offenheit als Strategie

Die MIT-Lizenz bedeutet, dass jedes Unternehmen V4-Pro (865 GB auf Hugging Face) oder Flash (160 GB) übernehmen und seinen eigenen Infrastruktur-Stack bereitstellen kann — ohne Lizenzgebühren und ohne Abhängigkeit vom API-Zugang eines Drittanbieters. Dies ist eine direkte Herausforderung für die geschlossenen Modelle von OpenAI und Anthropic, deren Monetarisierung auf API-Zugang basiert.

Gleichzeitig warnt DeepSeek offiziell: Die Modelle werden im Preview-Status veröffentlicht, ein Chat-Template im Jinja-Format fehlt, und die alten Zugriffspunkte deepseek-chat und deepseek-reasoner werden am 24. Juli 2026 vollständig abgeschaltet.

Wenn V4-Pro in der vollständigen Version die Benchmark-Ergebnisse der Preview bestätigt — und wenn Unsloth oder andere Teams quantisierte Varianten veröffentlichen, die für lokale Bereitstellung auf Consumer-Hardware geeignet sind — liegt die Frage nicht darin, ob sich der Markt für Enterprise-KI verändern wird, sondern darin, wie viel Zeit geschlossene Anbieter haben, bevor ein Preisunterschied von Faktor 10 für ihre Kunden zu einem unakzeptablen Argument gegen Loyalität wird.

Weltnachrichten