Kürzlich äußerten sich Meta-Ingenieure anonym auf der Plattform TeamBlind und beschrieben den enormen Druck, den das von der chinesischen Firma DeepSeek entwickelte KI-Modell R1 ausübt. DeepSeek gilt als weltweit erstes Open-Source-KI-Modell, das mit OpenAIs o1-Modell vergleichbar ist. Im Gegensatz zu OpenAI ist R1 nicht nur offener, sondern auch erstaunlich günstig zu trainieren: Die Kosten betrugen lediglich 5,5 Millionen US-Dollar.

image.png

Im Vergleich dazu übersteigt das Jahresgehalt von Meta-Managern oft die Trainingskosten des gesamten DeepSeek V3, was bei der Meta-Führung zu großer Verlegenheit führt.

Insider-Informationen zufolge hat DeepSeek V3 bereits im vergangenen Jahr Meta unter Druck gesetzt. Metas Ingenieure arbeiten fieberhaft daran, DeepSeks Technologie zu analysieren und die Schlüsseltechnologien nachzubilden. Früher jagten globale KI-Forscher den amerikanischen großen Sprachmodellen hinterher, doch die Lage hat sich geändert: Amerikanische Ingenieure beginnen nun, chinesische KI-Technologien zu reverse-engineeren.

DeepSeek übertrifft nicht nur Metas Llama4 in Benchmark-Tests, sondern beeindruckt auch in verschiedenen Bereichen. Durch den Einsatz von groß angelegtem verstärktem Lernen (RL) und unüberwachtem Feintuning (SFT) erreicht DeepSeek eine extrem hohe Inferenzleistung. Dieses selbstbewusste Auftreten lässt einige US-Amerikaner über den rasanten Aufstieg Chinas im KI-Bereich nachdenken.

Wichtigste Punkte:

🌟 Die Trainingskosten des DeepSeek R1-Modells betragen nur 5,5 Millionen US-Dollar, die Leistung ist mit OpenAIs o1 vergleichbar.

👨‍💻 Die Gehälter von Meta-Managern übersteigen die Trainingskosten von DeepSeek, was bei der Geschäftsführung zu großem Druck führt.

📈 Der Erfolg von DeepSeek löst Panik bei amerikanischen Technologieunternehmen aus und stellt die Führungsrolle der USA im KI-Bereich in Frage.