Die letzte Woche war im Bereich der KI äußerst dynamisch. Google und Meta haben neue Versionen ihrer KI-Modelle vorgestellt und damit viel Aufmerksamkeit auf sich gezogen. Zunächst kündigte Google am Dienstag neue Updates seiner Gemini-Serie an und präsentierte zwei neue produktionsreife Modelle: Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002.
Diese Updates verbessern die Gesamtqualität der Modelle deutlich, insbesondere bei mathematischen Aufgaben, der Verarbeitung langer Kontexte und visuellen Aufgaben. Google behauptet, eine Performance-Steigerung von 7 % beim MMLU-Pro-Benchmark erreicht zu haben, bei mathematischen Aufgaben sogar 20 %. Auch wenn die Aussagekraft von Benchmarks begrenzt ist, sind diese Ergebnisse dennoch beeindruckend.
Neben der Leistungssteigerung hat Google die Nutzungskosten von Gemini 1.5 Pro deutlich gesenkt: Die Kosten für Eingabe- und Ausgabe-Token sind um 64 % bzw. 52 % gefallen. Dies macht den Einsatz von Gemini für Entwickler deutlich wirtschaftlicher.
Darüber hinaus wurden die Verarbeitungsgeschwindigkeiten von Anfragen für Gemini 1.5 Flash und Pro verbessert. Ersteres unterstützt 2000 Anfragen pro Minute, Letzteres 1000. Diese Verbesserungen erleichtern Entwicklern die Erstellung von Anwendungen erheblich.
Am Mittwoch präsentierte Meta mit Llama 3.2 ein bedeutendes Update seines Open-Source-KI-Modells. Dieses Update umfasst große Sprachmodelle mit visuellen Fähigkeiten, mit einer Parameteranzahl von 1,1 Milliarden bis 9 Milliarden. Zusätzlich wurden leichtgewichtige Textmodelle mit 100 Millionen und 300 Millionen Parametern für mobile Geräte vorgestellt.
Meta behauptet, dass diese visuellen Modelle in der Bilderkennung und dem visuellen Verständnis mit den führenden proprietären Modellen auf dem Markt mithalten können. AI-Forscher haben die neuen Modelle getestet und festgestellt, dass die kleineren Modelle bei vielen Text-Aufgaben hervorragende Ergebnisse liefern.
Am Donnerstag kündigte Google DeepMind schließlich ein wichtiges Projekt an: AlphaChip. Basierend auf Forschungsergebnissen aus dem Jahr 2020 zielt dieses Projekt darauf ab, mithilfe von Reinforcement Learning Chip-Layouts zu entwickeln. Google erklärt, dass AlphaChip in den letzten drei Generationen seiner Tensor Processing Units (TPUs) zu "übermenschlichen Chip-Layouts" geführt hat und die Generierung hochwertiger Chip-Layouts von mehreren Wochen oder Monaten auf wenige Stunden verkürzt.
Besonders erwähnenswert ist, dass Google das vortrainierte Modell von AlphaChip auf GitHub öffentlich zugänglich gemacht hat. Andere Chiphersteller können diese Technologie nutzen; Unternehmen wie MediaTek setzen sie bereits ein.
Wichtigste Punkte:
📈 **Google veröffentlicht neue Gemini-Modelle mit verbesserter Leistung und deutlich reduzierten Preisen.**
🤖 **Meta präsentiert Llama 3.2: kleine Sprachmodelle mit visuellen Fähigkeiten und hervorragender Leistung.**
💡 **Googles AlphaChip beschleunigt das Chipdesign, steigert die Effizienz erheblich und teilt die Technologie.**