Lernpfad
Nach monatelangen Gerüchten und kurz nach den neuen GPT-5.5 und Claude Opus 4.7 hat DeepSeek endlich DeepSeek V4 veröffentlicht. Der Release kommt in Form von zwei Preview-Modellen, V4-Pro und V4-Flash, mit aggressiver Preisgestaltung und nahezu Spitzenleistung.
DeepSeek V4-Pro bietet insgesamt 1,6 Billionen Parameter und standardmäßig ein Kontextfenster von 1 Million Tokens. Laut DeepSeek liegt das Modell nur 3 bis 6 Monate hinter den besten Closed-Source-Modellen zurück, kostet aber nur einen Bruchteil im Vergleich zu Wettbewerbern wie OpenAI und Anthropic.
In diesem Artikel gehe ich auf den DeepSeek-V4-Release ein, stelle die wichtigsten Features, die Benchmark-Ergebnisse und den Vergleich mit der Konkurrenz vor. Sieh dir auch unsere Guides zu GPT-5.5 und Claude Opus 4.7 an.
DeepSeek V4 auf einen Blick
- V4 gibt es in zwei Varianten: Pro (1,6 Bio. Parameter) und Flash (284 Mrd. Parameter).
- Beide Modelle bieten standardmäßig ein Kontextfenster mit 1 Million Tokens.
- Pro kostet $1,74 Input / $3,48 Output pro 1 Million Tokens und unterbietet GPT-5.5 und Opus 4.7 deutlich.
- Verfügbar via API, Weboberfläche und als Open Weights (MIT-Lizenz).
Was ist DeepSeek V4?
DeepSeek V4 ist die lang erwartete neue Serie von Open-Weight-Sprachmodellen des chinesischen KI-Labs DeepSeek. Veröffentlicht am 24. April 2026, erscheint die V4-Serie in zwei Versionen: DeepSeek-V4-Pro und DeepSeek-V4-Flash. Beide Modelle nutzen eine Mixture-of-Experts-(MoE)-Architektur und bieten standardmäßig ein riesiges Kontextfenster mit 1 Million Tokens.
Besonders relevant für die Branche ist die Kombination aus nahezu Spitzenleistung und sehr wettbewerbsfähigen Preisen. V4-Pro weist insgesamt 1,6 Billionen Parameter (49 Milliarden aktiv) auf und ist damit derzeit das größte verfügbare Open-Weights-Modell.
Trotz seiner Größe liegt es laut DeepSeek nur 3 bis 6 Monate hinter den führenden Closed-Source-Modellen zurück, kostet aber nur einen Bruchteil im Vergleich zu OpenAI und Anthropic.
Wichtige Features von DeepSeek V4
Werfen wir einen Blick auf einige Highlights des neuesten Releases:
Strukturelle Innovation und 1M-Kontext-Effizienz
Das herausragende Merkmal von DeepSeek V4 ist der hocheffiziente Umgang mit langen Kontexten.
Laut den technischen Notizen nutzt die V4-Serie eine Hybrid-Attention-Architektur, die Compressed Sparse Attention (CSA) und Heavily Compressed Attention (HCA) kombiniert.
Durch diese strukturellen Änderungen ist ein 1-Millionen-Token-Kontext nun Standard in allen DeepSeek-Services.
DeepSeek gibt an, dass DeepSeek-V4-Pro in einem 1M-Token-Kontext nur 27% der Single-Token-Inference-FLOPs und lediglich 10% des KV-Caches im Vergleich zum Vorgänger DeepSeek-V3.2 benötigt.
Drei Stufen für Reasoning-Aufwand
Um den Trade-off zwischen Latenz und Leistung fein zu steuern, bietet DeepSeek V4 drei Reasoning-Modi:
- Non-think: Schnelle, intuitive Antworten für Routinetätigkeiten und risikoarme Entscheidungen.
- Think High: Bewusste, logische Analyse, langsamer, aber sehr präzise bei komplexer Problemlösung.
- Think Max: Treibt die Reasoning-Fähigkeiten bis an die Grenzen, um das Leistungsspektrum des Modells auszuloten.
Erweiterte agentische Fähigkeiten
DeepSeek V4 ist offenbar für agentisches Coden optimiert. Die Release Notes behaupten, es integriere sich nahtlos mit führenden KI-Agenten wie Claude Code, OpenClaw und OpenCode und treibt bereits DeepSeeks eigene agentische Coding-Infrastruktur an.
Fortgeschrittene Trainingsoptimierungen
Unter der Haube führte DeepSeek Manifold-Constrained Hyper-Connections (mHC) ein, um Residualverbindungen zu verstärken und die Signalweitergabe zu stabilisieren. Außerdem wechselte das Team zum Muon Optimizer für schnellere Konvergenz und mehr Trainingsstabilität und prä-trainierte die Modelle auf über 32 Billionen vielfältigen Tokens.
DeepSeek V4 Benchmarks
Den internen Ergebnissen von DeepSeek zufolge zeigt DeepSeek V4 beeindruckende Leistung, insbesondere wenn es bis an seine maximalen Reasoning-Grenzen (DeepSeek-V4-Pro-Max) gefordert wird.
Laut den offiziellen Release Notes schneidet das Modell im Branchenvergleich wie folgt ab:
Wissen und Reasoning
Pro-Max übertrifft mühelos andere Open-Source-Modelle und schlägt ältere Spitzenmodelle wie GPT-5.2. Es erreicht starke 87,5% auf MMLU-Pro und 90,1% auf GPQA Diamond sowie beeindruckende 92,6% auf GSM8K für Mathematik. Es liegt zwar noch wenige Monate hinter der absoluten Spitze (GPT-5.4 und Gemini-3.1-Pro), hat die Wissenslücke aber deutlich geschlossen.
Agentische Aufgaben
Pro-Max liegt auf Augenhöhe mit führenden Open-Modellen und erreicht 67,9% auf Terminal Bench 2.0 und 55,4% auf SWE-Bench Pro. Auf öffentlichen Leaderboards bleibt es knapp hinter den neuesten Closed-Modellen, interne Tests zeigen jedoch Vorteile gegenüber Claude Sonnet 4.5 und eine Annäherung an Opus 4.5.
Langer Kontext
Das 1-Millionen-Token-Fenster ist nicht nur Show. Pro-Max liefert hier sehr starke Ergebnisse und erreicht 83,5% bei MRCR 1M (MMR) Needle-in-a-Haystack-Retrieval-Tests. Damit übertrifft es Gemini-3.1-Pro auf akademischen Long-Context-Benchmarks.
DeepSeek V4 Pro vs Flash
Aufgrund der kleineren Größe schneidet Flash-Max bei reinem Wissen naturgemäß niedriger ab und tut sich mit den komplexesten Agent-Workflows schwer. Gibst du ihm jedoch ein größeres „Thinking Budget“, erreicht es Reasoning-Werte auf dem Niveau älterer Spitzenmodelle und ist damit eine äußerst kosteneffiziente Option für hohe Lasten.

Wie kann ich auf DeepSeek V4 zugreifen?
Es gibt derzeit mehrere Möglichkeiten, DeepSeek V4 zu nutzen:
- Weboberfläche: Du kannst beide Modelle sofort auf chat.deepseek.com im Instant- oder Expert-Mode testen.
- API-Zugang: Die API ist ab heute verfügbar. Entwickler müssen ihren Modellparameter lediglich auf
deepseek-v4-prooderdeepseek-v4-flashaktualisieren. Die API ist kompatibel mit den Formaten OpenAI ChatCompletions und Anthropic API. (Hinweis: Die älteren Modelledeepseek-chatunddeepseek-reasonerwerden am 24. Juli 2026 eingestellt). - Open Weights: Beide Modelle werden unter der MIT-Lizenz veröffentlicht. Du kannst die Gewichte direkt von Hugging Face oder ModelScope herunterladen. Pro ist ein 865GB-Download, Flash deutlich handlicher mit 160GB.
DeepSeek V4 im Vergleich zur Konkurrenz
In der letzten Woche wurden OpenAIs GPT-5.5 und Anthropics Claude Opus 4.7 veröffentlicht. Diese Modelle bieten Top-Fähigkeiten, insbesondere bei Long-Context-Reasoning und agentischem Coden. DeepSeek V4 punktet hingegen stark beim Preis-Leistungs-Verhältnis und durch offene Zugänglichkeit.
So schlägt sich DeepSeek-V4-Pro im Vergleich zu den neuen Flaggschiffen von OpenAI und Anthropic:
|
Feature/Benchmark |
DeepSeek V4 Pro |
GPT-5.5 |
Claude Opus 4.7 |
|
API-Preise (Input / Output pro 1M) |
$1,74 / $3,48 |
$5,00 / $30,00 |
$5,00 / $25,00 |
|
Kontextfenster |
1M Tokens |
~1M Tokens |
~1M Tokens |
|
SWE-bench Pro (Coding) |
55,4% |
58,6% |
64,3% |
|
Terminal-Bench 2.0 (Agentic) |
67,9% |
82,7% |
69,4% |
|
Open Weights |
Ja (MIT-Lizenz) |
Nein (geschlossen) |
Nein (geschlossen) |
Hinweis: Für alle mit strengem Budget kostet DeepSeek V4 Flash nur $0,14 pro 1M Input-Tokens und $0,28 pro 1M Output-Tokens und unterbietet damit sogar kleine Modelle wie GPT-5.4 Nano.
Wie gut ist DeepSeek V4?
DeepSeek V4 ist ein äußerst disruptiver Release. Den selbst berichteten Benchmarks von DeepSeek zufolge liegt das Pro-Modell auf der Entwicklungsachse nur 3 bis 6 Monate hinter den modernsten Spitzenmodellen (wie GPT-5.4 und Gemini-3.1-Pro).
Im größeren Branchenkontext ist reine Performance jedoch nur die halbe Geschichte. Die eigentliche Schlagzeile bei DeepSeek V4 sind die extrem hohe Kontexteffizienz und die sehr niedrigen Preise.
Nahezu Spitzenleistung inklusive 1M-Token-Kontextfenster zu einem Bruchteil der Kosten von GPT-5.5 oder Opus 4.7 zu liefern, macht DeepSeek V4 zur überzeugendsten Option für hochvolumige Enterprise-Aufgaben, Open-Source-Forschung und budgetbewusste Entwickler.
Anwendungsfälle für DeepSeek V4
Vor diesem Hintergrund sind hier ein paar Bereiche, in denen V4 besonders stark ist:
- Automatisierte Softwareentwicklung: Starke agentische Benchmarks und die Integration mit Tools wie OpenClaw machen V4-Pro zu einem guten Kandidaten für autonome Code-Refactorings und Debugging.
- Dokumentenverarbeitung in großem Stil: Die reduzierten Kosten bei 1M-Token-Kontextberechnungen ermöglichen es Finanzanalysten und Rechtsteams, Unmengen an PDFs, 10-Ks und Verträgen für wenige Cent zu verarbeiten.
- Lokale Bereitstellung und Forschung: Dank MIT-Lizenz können Forschende Quantisierung durchführen (insbesondere beim 160GB-Flash-Modell) und mit KI auf Spitzenniveau lokal auf High-End-Consumer-Hardware experimentieren.
Fazit
DeepSeek V4 ist ein großer Schritt für die Open-Source-KI-Community. Auch wenn GPT-5.5 und Claude Opus 4.7 bei den allerschwierigsten Coding- und Reasoning-Benchmarks knapp vorne liegen, demokratisiert DeepSeek V4 den Zugang zu 1-Millionen-Token-Kontextfenstern und komplexen agentischen Workflows.
Wenn du die Nase vorn behalten und lernen willst, wie du diese Spitzentechnologien in deine Workflows einbaust, empfehle ich dir unsere Ressourcen. Besonders unseren Kurs Understanding Prompt Engineering, um deine Kommunikation mit Modellen wie DeepSeek zu verfeinern, oder den AI Agent Fundamentals Skill Track, wenn du skalierbare agentische Systeme aufbauen willst.
DeepSeek V4 FAQs
Ist DeepSeek V4 Open Source?
Ja. Sowohl DeepSeek-V4-Pro als auch DeepSeek-V4-Flash sind Open-Weight-Modelle und unter der sehr freizügigen MIT-Lizenz veröffentlicht. Das erlaubt Entwicklerinnen und Entwicklern sowie Forschenden, die Modelle kommerziell zu nutzen, zu modifizieren und zu deployen.
Wie groß ist das Kontextfenster von DeepSeek V4?
Sowohl Pro als auch Flash bieten standardmäßig ein Kontextfenster von 1 Million Tokens. Dank der neuen Hybrid-Attention-Architektur verarbeitet DeepSeek V4 diesen riesigen Kontext mit einem Bruchteil der Rechen- und Speicherkosten älterer Modelle.
Was kostet die DeepSeek V4 API?
Die Preise sind sehr wettbewerbsfähig. DeepSeek-V4-Flash kostet nur $0,14 pro 1M Input-Tokens und $0,28 pro 1M Output-Tokens. DeepSeek-V4-Pro kostet $1,74 pro 1M Input-Tokens und $3,48 pro 1M Output-Tokens.
Wie groß sind die DeepSeek V4 Modelle?
DeepSeek nutzt eine Mixture-of-Experts-(MoE)-Architektur. Das Pro-Modell umfasst insgesamt 1,6 Billionen Parameter (49 Milliarden aktiv) und erfordert einen Download von 865GB. Das Flash-Modell umfasst 284 Milliarden Parameter (13 Milliarden aktiv) und erfordert 160GB Download.
Schlägt DeepSeek V4 GPT-5.5 und Claude Opus 4.7?
In der reinen Leistungsfähigkeit: nein. Laut DeepSeeks eigenen Daten liegt V4-Pro bei den schwierigsten Coding- und Reasoning-Benchmarks etwa 3 bis 6 Monate hinter den modernsten Closed-Modellen. Es bietet jedoch nahezu Spitzenleistung zu etwa einem Drittel der API-Kosten und ist damit hochgradig disruptiv.

Autorin und Redakteurin im Bereich der Bildungstechnologie. Engagiert bei der Erforschung von Datentrends und begeistert davon, Data Science zu lernen.