IBM hat offiziell sein neues Open-Source-Großes Sprachmodell Granite3.1 veröffentlicht und strebt damit eine führende Position im Bereich der unternehmensorientierten KI an. Diese Modellreihe bietet eine erweiterte Kontextlänge von 128K, eingebettete Modelle, eine integrierte Halluzinationserkennung und eine deutlich verbesserte Leistung.

image.png

IBM behauptet, dass das Granite8B Instruct-Modell unter den Open-Source-Konkurrenten ähnlicher Größe am besten abschneidet, darunter Metas Llama3.1, Qwen2.5 und Googles Gemma2.

image.png

Die Veröffentlichung des Granite3.1-Modells erfolgt im Rahmen der schnellen Iteration von IBMs Granite-Serie, wobei bereits im Oktober Granite3.0 vorgestellt wurde. IBM gab bekannt, dass die mit generativer KI verbundenen Geschäftserlöse 20 Milliarden US-Dollar erreicht haben. Das Kernkonzept der neuen Version besteht darin, mehr Funktionen in kleinere Modelle zu integrieren, damit Unternehmen diese leichter und kostengünstiger betreiben können.

David Cox, Vizepräsident der IBM Research, erklärte, dass Granite-Modelle intern bei IBM in Produkten, Beratungsdiensten und im Kundenservice eingesetzt werden und gleichzeitig als Open-Source-Version veröffentlicht werden, daher sei ein hohes Niveau in allen Bereichen erforderlich. Die Leistungsbewertung der Modelle basiert nicht nur auf Geschwindigkeit, sondern auch auf Effizienz, um den Benutzern Zeit bei der Ergebnisfindung zu sparen.

Die Verbesserung der Kontextlänge bei Granite3.1 ist besonders deutlich: Sie wurde von der ursprünglichen Länge von 4K auf 128K erweitert, was für Benutzer von Unternehmens-KI besonders wichtig ist, insbesondere im Bereich Retrieval-Augmented Generation (RAG) und intelligenter Agenten-KI. Die längere Kontextlänge ermöglicht es dem Modell, längere Dokumente, Protokolle und Dialoge zu verarbeiten und komplexe Abfragen besser zu verstehen und zu beantworten.

IBM hat auch eine Reihe von eingebetteten Modellen eingeführt, um die Umwandlung von Daten in Vektoren zu beschleunigen. Das Granite-Embedding-30M-English-Modell hat eine Abfragezeit von 0,16 Sekunden und ist damit schneller als Konkurrenzprodukte. Um die Leistungssteigerung von Granite3.1 zu erreichen, hat IBM Innovationen im mehrstufigen Trainingsprozess und bei der Verwendung hochwertiger Trainingsdaten vorgenommen.

image.png

Im Bereich der Halluzinationserkennung integriert Granite3.1 einen Halluzinationsschutz direkt in das Modell, wodurch es Fehler in der Ausgabe selbst erkennen und reduzieren kann. Diese integrierte Erkennungsfunktion optimiert die Gesamteffizienz und reduziert die Anzahl der Inferenzaufrufe.

Derzeit steht das Granite3.1-Modell Unternehmenskunden kostenlos zur Verfügung und wird über IBMs Watsonx Enterprise AI-Service bereitgestellt. Zukünftig plant IBM, das schnelle Aktualisierungstempo beizubehalten, wobei Granite3.2 Anfang 2025 Multimodalitätsfunktionen bieten soll.

Offizieller Blog: https://www.ibm.com/new/announcements/ibm-granite-3-1-powerful-performance-long-context-and-more

Wichtigste Punkte:

🌟 IBM präsentiert Granite3.1, um im Markt für Open-Source-Großsprachenmodelle eine führende Position einzunehmen.

💡 Das neue Modell unterstützt eine Kontextlänge von 128K und verbessert damit deutlich die Verarbeitungsleistung und -effizienz.

🚀 Die Halluzinationserkennungsfunktion ist in das Modell integriert und optimiert die Gesamtperformance und Genauigkeit.