Red Hat a récemment publié la version 1.3 de sa plateforme d'intelligence artificielle Linux d'entreprise, RHEL AI. Cette version inclut une prise en charge accrue du modèle linguistique de grande taille (LLM) IBM Granite, ainsi qu'un aperçu de la prise en charge des accélérateurs Intel Gaudi3. Cette mise à jour offre de nouvelles opportunités aux partenaires de services et intégrateurs systèmes Red Hat, aidant les entreprises à explorer et à intégrer plus efficacement les applications d'intelligence artificielle.
Joe Fernandes, vice-président et directeur général de la division IA de Red Hat, a déclaré que les partenaires de services et les intégrateurs systèmes jouent un rôle essentiel pour aider les entreprises à mettre en œuvre différents cas d'utilisation. Il a souligné que la complexité de l'intelligence artificielle générative permet à ces partenaires de fournir des solutions plus rentables aux clients. Red Hat vise à réduire les coûts en utilisant des modèles plus petits, à simplifier la complexité de l'intégration des modèles avec les données client et les cas d'utilisation, et à offrir la flexibilité nécessaire pour déployer ces modèles dans des environnements hybrides.
RHEL AI version 1.3 est conçue pour le développement, les tests et l'exécution de modèles d'intelligence artificielle générative pour les applications d'entreprise. Cette mise à jour inclut la prise en charge du modèle linguistique de grande taille IBM Granite sous licence open source, tout en utilisant des technologies open source pour la préparation des données. Les utilisateurs peuvent créer des images RHEL packageables et amorçables pour le déploiement sur des serveurs individuels dans un cloud hybride grâce au projet d'alignement de modèles InstructLab développé conjointement avec IBM.
La nouvelle version prend en charge les cas d'utilisation en anglais du modèle Granite 3.08b et offre un aperçu développeur permettant aux utilisateurs d'expérimenter les capacités du modèle dans d'autres langues, la génération de code et les appels de fonctions. Ces fonctionnalités seront entièrement prises en charge dans les versions ultérieures. De plus, RHEL AI prend en charge le projet open source Docling d'IBM Research, capable de convertir des formats de documents courants en Markdown, JSON, etc., pour une utilisation dans les applications et l'entraînement de l'intelligence artificielle générative. La nouvelle version possède une capacité de segmentation contextuelle, tenant compte de la structure et des éléments sémantiques du document, afin d'améliorer la qualité des réponses de l'intelligence artificielle générative.
Cette publication inclut également un aperçu technique de la prise en charge des accélérateurs Intel Gaudi3, permettant aux utilisateurs de traiter plusieurs requêtes en parallèle dans le traitement en temps réel et d'ajuster dynamiquement les paramètres du LLM pendant le traitement. Les futures versions de RHEL AI prendront en charge davantage de formats de documents pour Docling, intégreront un pipeline de génération de recherche améliorée et les fonctionnalités d'optimisation des connaissances d'InstructLab.
Points clés :
🔹 RHEL AI version 1.3 ajoute la prise en charge du modèle linguistique de grande taille IBM Granite, améliorant les capacités des applications d'entreprise.
🔹 La nouvelle version offre un aperçu de la prise en charge des accélérateurs Intel Gaudi3, améliorant les capacités de traitement en temps réel.
🔹 Red Hat s'engage à réduire les coûts et la complexité des modèles d'intelligence artificielle, favorisant un déploiement flexible dans le cloud hybride.