Chinesische quelloffene Modelle wie DeepSeek-V3 erreichen vergleichbare Leistung zu Trainingskosten, die um Größenordnungen unter westlichen Schätzungen liegen. API-Preise fallen um Faktor 10–20, US-Startups wandern massenhaft zu chinesischen Alternativen ab. Was auf den ersten Blick wie ein Vorbote eines KI-Blasen-Zusammenbruchs erscheint, entpuppt sich bei näherer Betrachtung als fundamentale Umverteilung der Wertschöpfung. Die eigentliche Störung liegt nicht in fallenden Preisen, sondern in der strukturellen Neuordnung: Grundlagenmodelle (Foundation Models) werden zur Massenware, während sich die Frage verschiebt, wo künftig wirtschaftlicher Wert entsteht – und ob westliche Anbieter ihre Geschäftsmodelle schnell genug anpassen können.
Die Anatomie eines Kostensprungs
Die Zahlen wirken auf den ersten Blick spektakulär: DeepSeek-V3 soll in seinem finalen Trainingsdurchlauf etwa 5,6 Millionen Dollar gekostet haben. 2.048 H800-Grafikprozessoren über 2,79 Millionen Prozessorstunden, 14,8 Billionen Token. Dem gegenüber stehen Schätzungen für GPT‑4, die von 20 bis 100 Millionen Dollar für die reine Trainingsrechenleistung sprechen, von Gesamtkosten ganz zu schweigen. Die Differenz erscheint so drastisch, dass reflexartig Skepsis einsetzt.
Die Skepsis ist berechtigt, aber nicht im vermuteten Sinne. Die 5,6 Millionen erfassen nur den finalen Durchlauf – nicht die explorativen Versuche, gescheiterten Architekturen, Infrastrukturabschreibungen, Personal- und Forschungskosten, Datenakquisition. GPT-4-Zahlen sind vermutlich ähnlich selektiv. Ein fairer Vergleich müsste die Gesamtkostenrechnung über den gesamten Entwicklungszyklus erfassen.
Dennoch bleibt die Kernaussage selbst bei konservativen Annahmen valide: Multipliziert man DeepSeeks Zahlen mit Faktor 5 bis 10 für versteckte Kosten, erreicht man immer noch nur 28 bis 56 Millionen – deutlich unter westlichen Vergleichswerten. Die Grenzkosten für Training sinken dramatisch, und chinesische Teams erreichen Leistungsparität bei Bruchteil-Budgets.
Die Frage ist nicht, ob die Zahlen exakt stimmen, sondern was die strukturelle Verschiebung bedeutet.
Architektonische Effizienz als Wettbewerbshebel
Der technische Kern liegt in der Mixture-of-Experts-Architektur (MoE). Statt bei jeder Schlussfolgerung das gesamte Modell zu aktivieren, werden nur relevante Teilbereiche („Experten”) genutzt. Das senkt Rechenanforderungen pro Token drastisch – und erklärt, warum DeepSeeks Schnittstellenpreise bei 0,14 bis 0,55 Dollar pro Million Eingabe-Token liegen, während OpenAI für GPT-4o 2,50 Dollar verlangt. Bei Ausgabe-Token wird der Faktor noch deutlicher: 0,28 bis 2,19 Dollar versus 10 Dollar.
Für ein Unternehmen mit hohem Schnittstellenvolumen bedeutet das: 92.000 Dollar jährlich auf DeepSeek versus 1,95 Millionen auf GPT-4o. Selbst wenn man Qualitätsunterschiede, Regelkonformitätsaufwand, Integrationskosten einrechnet – die Größenordnung erzwingt strategische Neubewertung.
MoE ist keine chinesische Erfindung, aber die konsequente Optimierung unter Hardwarebeschränkungen hat zu Umsetzungen geführt, die sich nun als strukturell überle…
