Hebbia, dont siège social est situé à New York, a annoncé avoir levé 130 millions de dollars lors d'un tour de financement de série B. Parmi les investisseurs figurent Andreessen Horowitz, Index Ventures, Peter Thiel et la branche capital-risque de Google.

Hebbia construit quelque chose de relativement simple : une interface de productivité localisée LLM qui facilite l'extraction de valeur à partir des données, quelle que soit leur nature ou leur volume. La société a déjà collaboré avec de grandes entreprises du secteur des services financiers, notamment des hedge funds et des banques d'investissement, et prévoit d'étendre sa technologie à davantage d'entreprises dans les prochains jours.

image.png

Accès au produit : https://top.aibase.com/tool/hebbia

Bien que les chatbots basés sur les LLM puissent s'appuyer sur des documents internes ou des documents d'invite, de nombreux utilisateurs ont constaté que ces assistants étaient incapables de répondre à des questions complexes sur les fonctionnalités de l'entreprise. Dans certains cas, le problème réside dans la fenêtre contextuelle, qui ne peut pas gérer la taille des documents fournis, tandis que dans d'autres cas, la complexité de la requête empêche le modèle de la résoudre avec précision. Les erreurs peuvent même ébranler la confiance des équipes dans les modèles linguistiques.

Hebbia comble cette lacune en proposant Matrix, un copilote par procuration associé aux LLM. Ce produit s'intègre à l'environnement professionnel de l'entreprise, permettant aux travailleurs du savoir de poser des questions complexes relatives aux documents internes – des PDF, feuilles de calcul et documents Word aux transcriptions audio – avec une fenêtre contextuelle illimitée.

Une fois que l'utilisateur a fourni une requête et les documents/fichiers associés, Matrix la décompose en opérations plus petites que le LLM peut exécuter. Cela lui permet d'analyser toutes les informations contenues dans les documents en une seule fois et d'extraire les informations nécessaires sous une forme structurée. Hebbia indique que cette plateforme permet au modèle de raisonner sur n'importe quel nombre (de millions à des milliards) de documents et de modalités de données, tout en fournissant des références pertinentes pour aider les utilisateurs à suivre chaque opération et à comprendre comment la plateforme arrive finalement à sa réponse.

Grâce à ce dernier tour de financement, la société souhaite poursuivre sur cette lancée et attirer davantage de grandes entreprises pour utiliser sa plateforme afin de simplifier la manière dont leurs employés récupèrent les connaissances.

Hebbia n'est pas la seule entreprise dans ce domaine. D'autres entreprises explorent également la recherche de connaissances basée sur l'IA pour les entreprises, notamment Glean. Cette start-up basée à Palo Alto, en Californie, a atteint le statut de licorne en 2022 et construit des assistants similaires à ChatGPT pour la productivité en milieu professionnel. Des acteurs comme Vectara s'efforcent également de créer une expérience IA universelle basée sur les données d'entreprise.

Points clés :

👉 Hebbia a levé 130 millions de dollars lors d'un tour de financement de série B afin de créer une interface de productivité LLM localisée qui facilite l'extraction de valeur à partir des données.

👉 Le copilote par procuration Matrix d'Hebbia peut analyser toutes les informations contenues dans les documents et extraire les informations nécessaires sous une forme structurée.

👉 Hebbia a déjà collaboré avec des organismes tels que CharlesBank, Center View Partners et l'US Air Force, et compte plus de 1 000 cas d'utilisation concrets.