Kürzlich wurde eine Rangliste von KI-Modellen veröffentlicht, die durch Blindtests von Millionen Nutzern weltweit ermittelt wurde. Das chinesische KI-Modell „Yi-Lightning“ hat dabei eine Überraschung geschafft und das bisher führende GPT-4 überholt.

Das Modell „Yi-Lightning“ wurde von dem bekannten chinesischen KI-Unternehmen Zero One entwickelte und erreichte in mehreren Teilrankings Spitzenplätze. Im Bereich Mathematik belegte es sogar gemeinsam mit internationalen Giganten den dritten Platz.

Bemerkenswert ist, dass die Bewertung von „Yi-Lightning“ nahezu mit dem kürzlich von Musk vorgestellten xAI-Modell Grok-2-08-13 übereinstimmt und GPT-4o-2024-05-13, GPT-4o-mini-2024-07-18 und Claude3.5Sonnet deutlich übertrifft.

image.png

Die Bewertungskriterien der Rangliste wurden grundlegend überarbeitet und legen nun mehr Wert auf die Fähigkeit des KI-Modells, reale Probleme zu lösen, anstatt lediglich die Länge und den Stil der Antworten zu berücksichtigen.

Unter den neuen Regeln gehört „Yi-Lightning“ weiterhin zur Spitzengruppe zusammen mit GPT-4 und Grok-2, was seine Leistungsfähigkeit unterstreicht.

image.png

Die Übersetzung ist ein wichtiger Anwendungsbereich von KI-Modellen. Sie dient als umfassender Test für die Fähigkeiten des Modells in den Bereichen Sprachverständnis, Textgenerierung, interlinguale Kommunikation und Kontextualisierung. Im Vergleich zu Modellen wie Qwen2.5-72b-Instruct, DeepSeek-V2.5 und Doubao-pro zeigt Yi-Lightning bei Übersetzungsaufgaben eine herausragende Leistung: Es ist nicht nur schneller, sondern liefert auch überzeugendere und stilistisch ansprechendere Übersetzungen, die dem chinesischen Ausdruck besser entsprechen.

Beispielsweise habe ich zufällig einen englischen Textabschnitt über Notre-Dame de Paris ausgewählt. Yi-Lightning übersetzte ihn nicht nur schneller, sondern auch präziser und im Kontext des Chinesischen:

1.jpg

2.jpg

Die technischen Innovationen hinter dem Yi-Lightning-Modell sind ebenfalls beeindruckend. Es verwendet eine Mixed-Expert-Modellarchitektur, optimiert den Mixed-Attention-Mechanismus und reduziert so die Inferenzkosten bei der Verarbeitung langer Sequenzen deutlich. Darüber hinaus wurde ein Cross-Layer-Attention-Mechanismus eingeführt, um den effizienten Informationsaustausch zwischen verschiedenen Ebenen zu ermöglichen.

Besonders interessant ist, dass Yi-Lightning die am besten geeignete Expertennetzwerkkombination dynamisch an den Schwierigkeitsgrad der Aufgabe anpassen kann. Während des Trainings werden alle Expertennetzwerke aktiviert, während bei der Inferenz nur die relevanten Experten für die jeweilige Aufgabe ausgewählt werden, um eine optimale Leistung bei verschiedenen Herausforderungen zu gewährleisten.

Das „Yi-Lightning“-Modell nutzt eine Mixed-Expert-Modellarchitektur und einen optimierten Mixed-Attention-Mechanismus, um lange Sequenzen effizient zu verarbeiten und durch einen Cross-Layer-Attention-Mechanismus einen effizienten Informationsaustausch zwischen verschiedenen Ebenen zu ermöglichen.

Noch beeindruckender ist, dass „Yi-Lightning“ die am besten geeignete Expertennetzwerkkombination dynamisch an den Schwierigkeitsgrad der Aufgabe anpassen kann, um bei verschiedenen Herausforderungen stets optimale Ergebnisse zu liefern.

image.png

Dr. Kai-Fu Lee, Gründer und CEO von Zero One, erklärte, dass bei „Yi-Lightning“ im Pretraining verschiedene Strategien eingesetzt wurden, um sicherzustellen, dass das Modell nicht nur schnell, sondern auch umfassend Wissen erwirbt.

image.png

Gleichzeitig ist die Preisgestaltung von „Yi-Lightning“ mit nur 0,99 Yuan pro Million Token äußerst wettbewerbsfähig. Dr. Lee betonte, dass die hervorragende Leistung von „Yi-Lightning“ die Lücke zwischen chinesischen und internationalen Top-KI-Modellen auf fünf Monate verkürzt hat. Dies ist nicht nur ein technischer Fortschritt, sondern stärkt auch das Vertrauen in die chinesische KI-Branche.

QQ20241016-150316.jpg

Referenz: https://x.com/lmarena_ai/status/1846245604890116457