Amazon aurait récemment développé un grand modèle linguistique multi-modal appelé "Olympus", dont le lancement officiel est prévu dès la semaine prochaine lors de la conférence AWS re:Invent. Selon The Information, le nom de code interne de cet algorithme est "Olympus".

En novembre dernier, Reuters rapportait qu'Amazon avait investi des millions de dollars dans l'entraînement d'un grand modèle linguistique appelé "Olympus", avec un nombre de paramètres atteignant 2 000 milliards. On ignore si le modèle mentionné dans cet article est le même que le précédent "Olympus", une nouvelle version, ou un système entièrement nouveau.

Audio Intelligence Artificielle

Source de l'image : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Le nouveau modèle "Olympus" serait capable de traiter non seulement du texte, mais aussi des images et des vidéos. Cela signifie que les utilisateurs pourraient rechercher des extraits spécifiques dans une bibliothèque vidéo à l'aide d'instructions en langage naturel. De plus, le modèle serait capable d'aider les entreprises énergétiques à analyser les données géologiques. Ceci témoigne du potentiel d'application considérable d' "Olympus".

Les sources de The Information prévoient qu'Amazon pourrait annoncer ce nouveau modèle lors de la conférence AWS re:Invent de la semaine prochaine. Si "Olympus" est effectivement lancé lors de cette conférence, il sera probablement disponible via Amazon Web Services (AWS), peut-être intégré à AWS Bedrock. AWS Bedrock est un service géré lancé par Amazon en avril dernier, permettant aux utilisateurs d'accéder à des modèles de pointe hébergés dans le cloud.

Actuellement, ce service propose plus de six modèles développés par Amazon, le plus avancé étant Amazon Titan Text Premier. Ce dernier prend en charge des entrées jusqu'à 32 000 jetons, peut générer du texte et du code, et est capable de réaliser des analyses par raisonnement étape par étape.

Bedrock inclut également trois modèles d'intégration générative développés par Amazon, qui fournissent une structure mathématique de stockage d'informations pour les applications d'apprentissage automatique. L'un de ces modèles prend en charge la génération d'intégrations de données multimodales, ce qui pourrait faciliter l'utilisation des fonctionnalités multimodales d'"Olympus" par les clients.

Outre les modèles développés par Amazon, Bedrock propose également des modèles linguistiques d'autres entreprises, notamment Anthropic PBC, étroitement liée à Amazon. Récemment, Anthropic a reçu un financement de 8 milliards de dollars d'Amazon, dont un financement de 4 milliards de dollars annoncé la semaine dernière, particulièrement notable.

Le lancement du modèle "Olympus" pourrait être une manière pour Amazon de réduire sa dépendance à Anthropic. Parallèlement, d'autres géants de la technologie s'efforcent d'internaliser davantage de technologies d'intelligence artificielle, comme Meta qui développe son propre moteur de recherche pour réduire sa dépendance aux technologies de recherche de Microsoft et Google.

La stratégie d'Amazon en matière d'intelligence artificielle ne se limite pas aux logiciels, elle inclut également le matériel. La société a développé deux séries de puces optimisées pour les charges de travail d'entraînement et d'inférence : AWS Trainium et AWS Inferentia. La semaine dernière, Anthropic a également collaboré avec Amazon pour améliorer les performances des puces Trainium.

Points clés :

💡 Amazon développe un modèle linguistique multi-modal appelé "Olympus", dont le lancement est prévu lors de la conférence AWS re:Invent de la semaine prochaine.

🎥 Ce nouveau modèle peut traiter du texte, des images et des vidéos, et permet de rechercher des extraits spécifiques dans une bibliothèque vidéo à l'aide du langage naturel.

💻 "Olympus" sera probablement disponible via le service AWS Bedrock, et la stratégie d'IA d'Amazon inclut également des aspects matériels.