Red Hat hat kürzlich die neueste Version 1.3 seiner unternehmensgerechten Linux-KI-Plattform RHEL AI veröffentlicht. Diese Version bietet neue Unterstützung für das IBM Granite Large Language Model (LLM) und eine Vorschau auf die Unterstützung für Intel Gaudi3-Beschleuniger. Dieses Update bietet Red Hats Servicepartnern und Systemintegratoren mehr Möglichkeiten, Unternehmen bei der effizienteren Erkundung und Integration von KI-Anwendungen zu unterstützen.
Joe Fernandes, Vice President und General Manager der Red Hat AI-Abteilung, erklärte, dass Servicepartner und Systemintegratoren eine wichtige Rolle dabei spielen, Unternehmen bei der Umsetzung verschiedener Anwendungsfälle zu unterstützen. Er betonte, dass die Komplexität von generativer KI es diesen Partnern ermöglicht, kostengünstigere Lösungen für Kunden bereitzustellen. Red Hat zielt darauf ab, die Kosten durch die Verwendung kleinerer Modelle zu senken, die Komplexität der Integration von Modellen mit Kundendaten und Anwendungsfällen zu vereinfachen und Flexibilität für die Bereitstellung dieser Modelle in hybriden Umgebungen zu bieten.
RHEL AI Version 1.3 wurde für die Entwicklung, das Testen und den Betrieb von generativen KI-Modellen für Unternehmen entwickelt. Dieses Update beinhaltet die Unterstützung für das unter offener IBM-Lizenz stehende Granite Large Language Model und nutzt Open-Source-Technologien für die Datenaufbereitung. Benutzer können mithilfe des gemeinsam mit IBM entwickelten InstructLab-Modell-Alignment-Projekts diese Komponenten verwenden, um verpackbare, startfähige RHEL-Images für die Bereitstellung einzelner Server in einer Hybrid Cloud erstellen.
Die neue Version unterstützt englische Sprachfälle von Granite 3.08b und bietet eine Entwickler-Vorschau, mit der Benutzer die Fähigkeiten des Modells für nicht-englische Sprachen, Codegenerierung und Funktionsaufrufe testen können. Die vollständige Unterstützung dieser Funktionen wird in zukünftigen Versionen bereitgestellt. Darüber hinaus unterstützt RHEL AI das Open-Source-Projekt Docling von IBM Research, das gängige Dokumentformate in Formate wie Markdown und JSON umwandeln kann, um sie für generative KI-Anwendungen und -Schulungen zu verwenden. Die neue Version verfügt über eine kontextbewusste Segmentierungsfunktion, die die Struktur und semantischen Elemente von Dokumenten berücksichtigt und darauf abzielt, die Qualität der Antworten generativer KI zu verbessern.
Diese Veröffentlichung enthält außerdem eine technische Vorschau auf die Unterstützung für Intel Gaudi3-Beschleuniger. Benutzer können mehrere Anfragen parallel in der Echtzeitverarbeitung verarbeiten und dabei die LLM-Parameter dynamisch anpassen. Zukünftige Versionen von RHEL AI werden weitere Dokumentformate von Docling unterstützen, ein verbessertes Retrieval-Augmented Generation (RAG)-Pipeline integrieren und die InstructLab-Wissensfeinabstimmung ermöglichen.
Wichtigste Punkte:
🔹 RHEL AI 1.3 bietet neue Unterstützung für das IBM Granite Large Language Model und verbessert die Fähigkeiten von Unternehmensanwendungen.
🔹 Die neue Version bietet eine Vorschau auf die Unterstützung für Intel Gaudi3-Beschleuniger und verbessert die Echtzeitverarbeitungsleistung.
🔹 Red Hat konzentriert sich darauf, die Kosten und die Komplexität von KI-Modellen zu senken und eine flexible Bereitstellung in Hybrid-Clouds zu ermöglichen.