Das chinesische KI-Startup DeepSeek hat heimlich das große Sprachmodell DeepSeek-V3-0324 veröffentlicht und damit die KI-Branche in Aufruhr versetzt. Das Modell mit einem Umfang von 641 GB ist auf der AI-Ressourcenplattform Hugging Face verfügbar. Die Veröffentlichung folgt DeepSeks traditionell zurückhaltendem, aber einflussreichem Stil – ohne große Ankündigung, lediglich mit einer leeren README-Datei und den Modellgewichten.

Das Modell steht unter der MIT-Lizenz, ist für kommerzielle Zwecke frei nutzbar und kann sogar auf Konsumer-Hardware – einem Apple Mac Studio mit M3 Ultra-Chip – direkt ausgeführt werden. Der KI-Forscher Awni Hannun gab in den sozialen Medien bekannt, dass die 4-Bit-quantisierte Version von DeepSeek-V3-0324 auf einem 512 GB M3 Ultra-Chip eine Geschwindigkeit von über 20 Token pro Sekunde erreicht. Obwohl der Mac Studio teuer ist, bricht die Möglichkeit, ein so großes Modell lokal auszuführen, die bisherige Abhängigkeit von Rechenzentren für Spitzentechnologie im KI-Bereich.

DeepSeek

DeepSeek-V3-0324 verwendet eine Mixture-of-Experts (MoE)-Architektur, bei der zur Aufgabenbearbeitung nur etwa 37 Milliarden Parameter und nicht alle 685 Milliarden Parameter aktiviert werden, was die Effizienz deutlich steigert. Gleichzeitig integriert es die Technologien Multi-Head Latent Attention (MLA) und Multi-Token Prediction (MTP). MLA verbessert das Kontextverständnis des Modells bei langen Texten, während MTP es ermöglicht, mehrere Token gleichzeitig zu generieren, wodurch die Ausgabegeschwindigkeit um fast 80 % gesteigert wird. Die 4-Bit-quantisierte Version reduziert den Speicherbedarf auf 352 GB, was den Betrieb auf High-End-Konsumer-Hardware ermöglicht.

Erste Tester berichten von einer deutlichen Verbesserung gegenüber der Vorgängerversion. Der KI-Forscher Xeophon behauptet, dass das Modell in allen Testmetriken einen riesigen Sprung gemacht hat und Anthropics Claude Sonnet 3.5 übertrifft und damit das beste nicht-inferenzbasierte Modell ist. Im Gegensatz zu Sonnet, das ein Abonnement erfordert, können die Gewichte von DeepSeek-V3-0324 kostenlos heruntergeladen und verwendet werden.

QQ20250325-085347.png

Die Open-Source-Strategie von DeepSeek steht im starken Kontrast zu westlichen KI-Unternehmen. US-amerikanische Unternehmen wie OpenAI und Anthropic setzen auf kostenpflichtige Modelle, während chinesische KI-Unternehmen zunehmend auf großzügige Open-Source-Lizenzen setzen. Diese Strategie beschleunigt die Entwicklung des chinesischen KI-Ökosystems, und auch Technologieriesen wie Baidu, Alibaba und Tencent folgen diesem Trend mit der Veröffentlichung eigener Open-Source-KI-Modelle. Angesichts der Beschränkungen bei Nvidia-Chips wandeln chinesische Unternehmen Nachteile in Wettbewerbsvorteile um, indem sie Effizienz und Optimierung in den Vordergrund stellen.

DeepSeek-V3-0324 ist wahrscheinlich die Grundlage für das kommende DeepSeek-R2-Inferenzmodell. Derzeit ist der Rechenbedarf für Inferenzmodelle enorm. Wenn DeepSeek-R2 eine gute Leistung zeigt, könnte es eine direkte Konkurrenz zu OpenAIs gemunkeltem GPT-5 darstellen.

Benutzer und Entwickler, die DeepSeek-V3-0324 ausprobieren möchten, können die vollständigen Modellgewichte von Hugging Face herunterladen. Die Datei ist jedoch sehr groß und erfordert erhebliche Speicher- und Rechenressourcen. Alternativ können Cloud-Dienste wie OpenRouter genutzt werden, die kostenlosen API-Zugriff und eine benutzerfreundliche Chat-Oberfläche bieten; DeepSeks eigene Chat-Oberfläche unterstützt möglicherweise auch die neue Version. Entwickler können das Modell auch über Inferenz-Service-Anbieter wie Hyperbolic Labs integrieren.

Es ist erwähnenswert, dass sich der Kommunikationsstil von DeepSeek-V3-0324 geändert hat. Von einem vorherigen, menschenähnlichen, konversationellen Stil ist es zu einem formelleren, technischeren Stil übergegangen. Diese Änderung zielt auf professionelle und technische Anwendungen ab, könnte aber die Attraktivität für verbraucherorientierte Anwendungen beeinträchtigen.

Die Open-Source-Strategie von DeepSeek prägt die globale KI-Landschaft neu. Zuvor lag China im KI-Bereich 1-2 Jahre hinter den USA zurück, jetzt ist der Abstand auf 3-6 Monate geschrumpft, in einigen Bereichen wurde sogar ein Überholmanöver vollzogen. Ähnlich wie Android durch Open Source weltweit führend wurde, könnten Open-Source-KI-Modelle durch breite Anwendung und kollektive Innovation von Entwicklern im Wettbewerb erfolgreich sein und die breitere Anwendung von KI-Technologien vorantreiben.