Cohere a publié Embed3, son modèle de recherche IA multimodale de pointe ; il prend désormais en charge la recherche multimodale, ce qui signifie que les utilisateurs peuvent effectuer des recherches au niveau de l'entreprise non seulement par le texte, mais aussi par l'image.
Depuis son lancement l'année dernière, Embed3 n'a cessé d'être optimisé pour aider les entreprises à transformer leurs documents en représentations numériques. Cette mise à niveau améliorera encore ses performances en matière de recherche d'images.
Aidan Gonzales, cofondateur et PDG de Cohere, a partagé sur les médias sociaux un graphique illustrant l'amélioration des performances d'Embed3 en matière de recherche d'images.
Dans un billet de blog, Cohere indique que cette nouvelle fonctionnalité aidera les entreprises à exploiter pleinement les données massives stockées dans les images et à améliorer leur efficacité. Les entreprises peuvent rechercher plus rapidement et plus précisément des actifs multimodaux tels que des rapports complexes, des catalogues de produits et des documents de conception.
Avec le développement continu de la recherche multimodale, Embed3 de Cohere peut désormais générer des intégrations de texte et d'images simultanément. Cette nouvelle méthode d'intégration permet aux utilisateurs de gérer les images et le texte dans un espace potentiel unifié, au lieu de les stocker séparément. Cette amélioration améliorera considérablement la qualité des résultats de recherche, évitera les biais vers les données textuelles et permettra une meilleure compréhension du sens des données.
Voici des exemples d'utilisation d'Embed3 :
Graphiques et tableaux : les représentations visuelles sont essentielles pour comprendre les données complexes. Les utilisateurs peuvent désormais trouver facilement les graphiques appropriés pour éclairer leurs décisions commerciales. Il suffit de décrire un aperçu spécifique, et Embed3 récupérera les graphiques et tableaux pertinents, permettant aux employés de différents services de prendre des décisions plus efficacement basées sur les données.
Catalogues de produits de commerce électronique : les méthodes de recherche traditionnelles limitent souvent les clients à la recherche de produits via des descriptions de produits basées sur du texte. Embed3 change cette expérience de recherche. Les détaillants peuvent créer des applications qui permettent de rechercher des images de produits en plus des descriptions textuelles, créant ainsi une expérience différenciée pour les acheteurs et améliorant le taux de conversion.
Fichiers et modèles de conception : les concepteurs utilisent souvent un grand nombre de bibliothèques d'actifs, en s'appuyant sur leur mémoire ou sur des règles de nommage strictes pour organiser les éléments visuels. Embed3 simplifie la recherche de modèles d'interface utilisateur, de modèles visuels et de diapositives de présentation spécifiques en fonction d'une description textuelle. Cela simplifie le processus de création.
Embed3 prend également en charge plus de 100 langues, ce qui signifie qu'il peut servir un public plus large. Actuellement, ce modèle multi-modal Embed3 est disponible sur la plateforme Cohere et sur Amazon SageMaker.
Alors que de plus en plus d'utilisateurs s'habituent à la recherche d'images, les entreprises suivent cette tendance. La mise à jour de Cohere leur offre la possibilité de bénéficier d'une expérience de recherche plus flexible. Cohere a mis à jour son API en septembre, permettant aux clients de passer facilement des modèles concurrents aux modèles Cohere.
Blog officiel : https://cohere.com/blog/multimodal-embed-3
Points clés :
🌟 Embed3 prend en charge la recherche multimodale, les utilisateurs peuvent effectuer des recherches par image et par texte.
📈 Le modèle mis à jour améliore considérablement les performances de recherche d'images, aidant les entreprises à exploiter la valeur des données.
🔄 Cohere a mis à jour son API en septembre, simplifiant le processus de transition des clients à partir d'autres modèles.