Laut TechWeb ist die weltweite Vorfreude auf DeepSeeks Flaggschiffmodell der nächsten Generation, den V4, nach dem chinesischen Neujahr im KI-Bereich weiter gestiegen. Berichten zufolge hat DeepSeek mit Branchenstandards gebrochen, indem das Unternehmen US-amerikanischen Chipherstellern wie Nvidia und AMD vor der Veröffentlichung des V4 keinen frühen Testzugang gewährte, sondern stattdessen chinesischen Chipherstellern wie Huawei mehrere Wochen „vorrangige Optimierungszeit“ einräumte. Dies sorgte in der Branche für Aufsehen.

Traditionell teilen KI-Entwickler Vorabversionen mit führenden Chipherstellern, bevor größere Modellaktualisierungen veröffentlicht werden, um eine effiziente Software- und Hardwarekompatibilität zu gewährleisten. DeepSeek folgte diesem Modell bisher und pflegte eine enge Zusammenarbeit mit dem technischen Team von NVIDIA. Die Vertriebsstrategie für das V4-Modell hat sich jedoch deutlich geändert: Quellen zufolge hat DeepSeek die Tests nicht für NVIDIA und AMD geöffnet, sondern chinesischen Chipherstellern wie Huawei die Möglichkeit gegeben, im Vorfeld Optimierungen an ihren Prozessoren vorzunehmen, darunter die gemeinsame Anpassung von Befehlssätzen, Operatorbibliotheken und Inferenzframeworks. NVIDIA und AMD lehnten eine Stellungnahme ab, DeepSeek und Huawei haben sich bisher nicht geäußert.
Analysten sehen in dieser Strategie einen Wendepunkt in DeepSeeks Ökosystem: Die Kompatibilität mit heimischen Computerplattformen wird priorisiert, um lokalen Chipherstellern Zeit für die Weiterentwicklung ihrer Technologien zu verschaffen und die enge Zusammenarbeit in den Bereichen Software und Hardware zu fördern. Mit dem näher rückenden Veröffentlichungstermin werden nach und nach technische Details zu V4 bekannt. Laut dem Tech-Blogger Legit hat DeepSeek einen geschlossenen Betatest der V4-Vorschauversion mit dem Codenamen „sealion-lite“ gestartet, bei dem alle Beteiligten strenge Vertraulichkeitsvereinbarungen unterzeichnet haben.
Technisch gesehen stellt V4 ein Generations-Upgrade dar: native Unterstützung für multimodale Verarbeitung, ein erweitertes Kontextfenster von 1 Million Tokens, die Fähigkeit, extrem lange Texte oder Codebasen gleichzeitig zu analysieren, und tiefgreifende logische Schlussfolgerungsfähigkeiten. Erste Tests zeigen, dass es bei Aufgaben wie der Generierung komplexer SVG-Vektorgrafiken außergewöhnlich gut abschneidet und bestehende Online-Modelle deutlich übertrifft. Branchenkenner vermuten, dass V4 ein Mega-Modell mit Billionen von Parametern sein könnte, dessen Veröffentlichung sich aufgrund des exponentiellen Wachstums des Trainingsumfangs verzögert.