DeepSeeks neue Open-Source-KI-Modelle haben angeblich GPT-5-Performance

Das chinesische KI-Startup DeepSeek hat am 1. Dezember 2025 zwei neue Sprachmodelle veröffentlicht. Das Unternehmen behauptet, diese erreichen auf mehreren Benchmarks die Performance von OpenAIs GPT-5 und Googles Gemini-3.0-Pro. Beide Modelle stehen unter einer Open-Source-MIT-Lizenz kostenlos zur Verfügung.

DeepSeek-V3.2 dient als Reasoning-Assistent für den täglichen Einsatz. DeepSeek-V3.2-Speciale fokussiert sich auf anspruchsvolle mathematische und Programmieraufgaben. Das Unternehmen mit Sitz in Hangzhou gibt an, die Speciale-Variante habe Goldmedaillen-Performance bei vier internationalen Wettbewerben erreicht: der International Mathematical Olympiad 2025, der International Olympiad in Informatics, den ICPC World Finals und der China Mathematical Olympiad.

Technische Architektur senkt Kosten

Die neuen Modelle basieren auf DeepSeek Sparse Attention, einem Mechanismus zur Effizienzsteigerung, der den Rechenaufwand für die Verarbeitung langer Dokumente reduziert. Laut technischem Report des Unternehmens kostet die Verarbeitung von 128.000 Token etwa 0,70 Dollar pro Million Token, verglichen mit 2,40 Dollar bei der vorherigen Modellversion. Dies entspricht einer Kostenreduktion von 70 Prozent.

Traditionelle Attention-Mechanismen skalieren schlecht bei zunehmender Eingabelänge. DeepSeeks Ansatz nutzt nach Unternehmensangaben einen „Lightning Indexer“, um relevante Kontextabschnitte zu identifizieren und den Rest zu ignorieren. Die Modelle mit 685 Milliarden Parametern unterstützen Kontextfenster von 128.000 Token, was etwa einem 300-seitigen Buch entspricht.

Benchmark-Ergebnisse und Wettbewerbsleistung

Beim Mathematikwettbewerb AIME 2025 erreichte DeepSeek-V3.2-Speciale eine Erfolgsrate von 96,0 Prozent. Das Unternehmen berichtet, dies vergleiche sich mit 94,6 Prozent für GPT-5-High und 95,0 Prozent für Gemini-3.0-Pro. Beim Harvard-MIT Mathematics Tournament erzielte die Speciale-Variante 99,2 Prozent.

Das Modell erreichte 35 von 42 Punkten bei der International Mathematical Olympiad 2025 und 492 von 600 Punkten bei der International Olympiad in Informatics. Bei den ICPC World Finals löste es 10 von 12 Problemen. DeepSeek gibt an, diese Ergebnisse seien ohne Internetzugang oder Tools während der Tests erzielt worden.

Bei Programmieraufgaben löste DeepSeek-V3.2 laut Unternehmen 73,1 Prozent der Software-Bugs auf SWE-Verified, verglichen mit 74,9 Prozent für GPT-5-High. Der technische Report räumt ein, dass „Token-Effizienz eine Herausforderung bleibt“ und das Modell „typischerweise längere Generierungspfade benötigt“ als manche Konkurrenten.

Tool-Integration und Trainingsansatz

DeepSeek-V3.2 führt ein, was das Unternehmen „Thinking in Tool-Use“ nennt. Das Modell kann seinen Reasoning-Prozess aufrechterhalten, während es Code ausführt, im Web sucht und Dateien manipuliert. Frühere Modelle verloren typischerweise ihren Reasoning-Kontext beim Aufruf externer Tools.

Das Unternehmen baute eine Pipeline für synthetische Daten, die über 1.800 Aufgabenumgebungen und 85.000 komplexe Anweisungen generiert. Die Aufgaben umfassten mehrtägige Reiseplanung mit Budgetbeschränkungen und Software-Bugfixes in acht Programmiersprachen.

Regulatorische Herausforderungen und Marktauswirkungen

DeepSeek steht in mehreren Rechtsräumen vor regulatorischen Hürden. Die Berliner Datenschutzbeauftragte erklärte im Juni 2025, DeepSeeks Transfer deutscher Nutzerdaten nach China verstoße gegen EU-Regeln. Italien ordnete im Februar 2025 die Sperrung der App an. US-Gesetzgeber haben Schritte unternommen, den Dienst von Regierungsgeräten zu verbannen.

Das Unternehmen hat nicht offengelegt, welche Hardware das Training von V3.2 ermöglichte. Das ursprüngliche V3-Modell trainierte Berichten zufolge auf etwa 2.000 Nvidia-H800-Chips, Hardware, die nun für den Export nach China eingeschränkt ist.

DeepSeek stellt vollständige Modellgewichte, Trainingscode und Dokumentation auf Hugging Face bereit. Das Unternehmen hat Python-Skripte beigefügt, die zeigen, wie man Nachrichten in OpenAI-kompatiblem Format kodiert. DeepSeek-V3.2-Speciale bleibt bis 15. Dezember 2025 über eine API verfügbar, danach werden die Fähigkeiten in die Standardversion integriert.

Quellen: DeepSeek, VentureBeat, Bloomberg

Über den Autor

Mehr zum Thema:

Bleib up-to-date:

Neu vom Autor dieser Website: ChatGPT-Kompass für Marketing Content Creation

Der aktuelle und umfassende Überblick für Marketing-Profis (2. Ausgabe, September 2025)

Der KI-Umbruch im Marketing ist in vollem Gange und ChatGPT steht als Plattform Nr. 1 im Zentrum. Aber wie behältst du den Überblick bei all den neuen Funktionen und Möglichkeiten? Wie setzt du ChatGPT wirklichgewinnbringend für deine Arbeit ein?

Der „ChatGPT-Kompass“ liefert dir einen fundierten, aktuellen und umfassenden Überblick über ChatGPT und seine Anwendungsmöglichkeiten im Marketing.

Mehr Informationen