Technologie

DeepSeek V4 ist fünfmal billiger als GPT-5 und läuft ohne Nvidia-Chips

Das chinesische Labor, das mit R1 das Silicon Valley erschüttert hatte, legt mit V4-Pro und V4-Flash nach. V4-Pro ist das größte Open-Source-KI-Modell, das je gebaut wurde — 1,6 Billionen Parameter, eine Million Token Kontextfenster, MIT-Lizenz. Die Tarife unterbieten OpenAI und Anthropic um Faktoren, und die Modelle sind auf chinesische Hardware optimiert. Die Gewichte stehen bereits auf Hugging Face zum Download bereit.
Susan Hill

DeepSeek hat die Preview-Version von V4-Pro und V4-Flash veröffentlicht — zwei Open-Source-Sprachmodelle, die eine klare These vertreten: Eine Million Token Kontext ist kein Kapazitätsproblem mehr, sondern nur noch ein Effizienzproblem. V4-Pro vereint 1,6 Billionen Parameter insgesamt, davon 49 Milliarden aktiv pro Anfrage — genug, um eine komplette Codebasis oder ein ganzes Buch in einem einzigen Prompt zu verarbeiten. Erstmals konkurriert ein offenes Modell ernsthaft mit den geschlossenen Spitzenmodellen in Mathematik, Programmierung und Agent-Aufgaben — zu einem Bruchteil der Kosten.

Beide Modelle erscheinen unter MIT-Lizenz, die Gewichte liegen auf Hugging Face. V4-Flash ist die effiziente Variante mit 284 Milliarden Parametern insgesamt und 13 Milliarden aktiv — klein genug, dass eine quantisierte Version auf einem hochwertigen Laptop laufen könnte. V4-Pro ist das Flaggschiff: 865 Gigabyte auf der Festplatte, ausgelegt für Cloud-Deployment und Forschungslabore. Beide teilen sich dasselbe Ein-Millionen-Token-Kontextfenster — ein Sprung, der Googles Gemini einholt und das Doppelte dessen bietet, was die meisten konkurrierenden offenen Modelle liefern.

YouTube Video

Der architektonische Kernkniff heißt Hybrid Attention: DeepSeek kombiniert zwei Kompressionstechniken und drückt die Speicherkosten derart aggressiv nach unten, dass V4-Pro bei gleicher Kontextlänge nur noch 27 Prozent der Rechenleistung und 10 Prozent des Caches benötigt, den V3.2 verbrauchte. V4-Flash geht noch weiter. In der Praxis bedeutet das: Ein Ein-Millionen-Token-Prompt mit V4-Pro ist heute billiger zu verarbeiten als ein 100.000-Token-Prompt mit der Vorgängergeneration. Das ist kein technisches Detail — es ist die ökonomische Voraussetzung dafür, dass Langkontextmodelle vom Laborversuch zum kommerziell nutzbaren Produkt werden.

Der Preisbruch ist der Punkt, an dem dieses Release am härtesten aufschlägt. V4-Flash kostet 0,14 Dollar pro Million Input-Token — weniger als selbst OpenAIs GPT-5.4 Nano. V4-Pro liegt bei 1,74 Dollar pro Million Input-Token und 3,48 Dollar pro Million Output-Token — ein Drittel dessen, was Anthropic für Claude Opus 4.7 verlangt, und ein Fünftel dessen, was OpenAI für GPT-5.5 aufruft. Bei den Programmier-Benchmarks erreicht V4-Pro ein Codeforces-Rating von 3.206; laut DeepSeek würde das dem Modell Rang 23 unter den menschlichen Wettbewerbsprogrammierern weltweit einbringen.

Die geopolitische Dimension wiegt mindestens so schwer wie die Benchmarks. DeepSeek hat V4 für Huaweis Ascend-950-Chips und für das Silizium des chinesischen KI-Entwicklers Cambricon optimiert — und hat Nvidia und AMD keinen Vorabzugriff zur Leistungsoptimierung gewährt, eine Umkehrung der Industriepraxis. Damit wird V4 zum kommerziellen Belastungstest für den chinesischen Hardware-Stack, der seit Jahren unter den Exportbeschränkungen Washingtons arbeitet. Für Europa ist die implizite Frage unbequemer: Während Peking einen souveränen Stack aus offenen Gewichten, heimischen Chips und eigener Inferenz-Software aufbaut und Washington seinen Stack gesetzlich abriegelt, bleibt die europäische digitale Souveränität strukturell von den Infrastrukturen beider Blöcke abhängig.

Mehrere Einschränkungen sind zu nennen. V4 ist eine Preview, keine Produktionsversion, und unabhängige Drittanbieter-Benchmarks liegen noch nicht vor. DeepSeeks eigener technischer Bericht räumt ein, dass das Modell in der Spitzenleistung rund drei bis sechs Monate hinter GPT-5.4 und Gemini 3.1 Pro zurückbleibt. Das Vorgängermodell R1 wurde binnen Wochen nach seinem Erscheinen in mehreren US-Bundesstaaten, in Australien, Taiwan, Südkorea, Dänemark und Italien verboten oder eingeschränkt — V4 bringt dieselbe regulatorische Angriffsfläche mit. Auftragnehmer des Pentagons dürfen DeepSeek-Modelle nach dem US-Gesetz NDAA 2026 nur mit ausdrücklicher Sondergenehmigung verwenden.

Außerhalb dieser Sperrzonen ist der Zugang sofort verfügbar. DeepSeeks Web-Chatbot stellt V4-Pro über den Modus Expert und V4-Flash über den Modus Instant kostenlos bereit; Entwickler können die API ansprechen, indem sie den Modellnamen auf deepseek-v4-pro oder deepseek-v4-flash setzen.

Das Release fällt exakt auf den Jahrestag von DeepSeek-R1, das am 20. Januar 2025 die globalen KI-Märkte erschütterte — der Termin ist bewusst gewählt. Die endgültige API-Preisgestaltung nach Ablauf der Preview-Phase steht noch aus, und die alten Endpunkte deepseek-chat und deepseek-reasoner werden am 24. Juli 2026 abgeschaltet, wenn der gesamte Verkehr automatisch auf V4 umgeleitet wird. Was hier zur Schau gestellt wird, reicht über den einzelnen Benchmark hinaus: Es ist der erste öffentliche Beleg, dass eine konkurrierende Macht einen vollständigen, wettbewerbsfähigen und günstigen KI-Stack ohne amerikanische Zulieferer liefern kann — und dieser Beleg allein definiert die strategische Lage für jede souveräne KI-Politik neu.

Diskussion

Es gibt 0 Kommentare.