Das in New York ansässige Unternehmen Hebbia hat eine Serie-B-Finanzierung in Höhe von 130 Millionen US-Dollar erhalten. Zu den Investoren gehören Andreessen Horowitz, Index Ventures, Peter Thiel und die Risikokapitalabteilung von Google.
Hebbia entwickelt etwas recht Einfaches: eine lokalisierte Produktivitätsschnittstelle für LLMs, die es einfacher macht, Wert aus Daten zu gewinnen, unabhängig von deren Typ oder Größe. Das Unternehmen arbeitet bereits mit einigen großen Unternehmen im Finanzdienstleistungssektor zusammen, darunter Hedgefonds und Investmentbanken, und plant, die Technologie in den nächsten Tagen weiteren Unternehmen zugänglich zu machen.
Produktzugang: https://top.aibase.com/tool/hebbia
Obwohl LLM-basierte Chatbots auf internen Dokumenten oder Prompts basieren können, stellen viele fest, dass diese Assistenten komplexe Fragen zu Geschäftsfunktionen nicht beantworten können. In einigen Fällen liegt das Problem im Kontextfenster, das die Größe der bereitgestellten Dokumente nicht verarbeiten kann, in anderen Fällen macht die Komplexität der Anfrage es dem Modell unmöglich, diese korrekt zu lösen. Fehler können sogar das Vertrauen von Teams in Sprachmodelle beeinträchtigen.
Hebbia behebt diese Lücke durch die Bereitstellung von Matrix, einem KI-gestützten Co-Piloten für LLMs. Dieses Produkt ist in die Geschäftsumgebung des Unternehmens integriert und ermöglicht es Wissensarbeitern, komplexe Fragen zu internen Dokumenten zu stellen – von PDFs, Tabellenkalkulationen und Word-Dokumenten bis hin zu Audiotranskriptionen – mit einem unbegrenzten Kontextfenster.
Sobald der Benutzer eine Anfrage und die zugehörigen Dokumente/Dateien bereitstellt, zerlegt Matrix diese in kleinere Aktionen, die von einem LLM ausgeführt werden können. Dadurch kann es alle in den Dokumenten enthaltenen Informationen auf einmal analysieren und die benötigten Inhalte in strukturierter Form extrahieren. Hebbia gibt an, dass die Plattform es dem Modell ermöglicht, über beliebig viele (Millionen bis Milliarden) Dokumente und Datenmodalitäten zu schlussfolgern und gleichzeitig relevante Referenzen bereitzustellen, damit der Benutzer jeden Schritt nachverfolgen und verstehen kann, wie die Plattform letztendlich zu einer Antwort gelangt.
Mit der jüngsten Finanzierungsrunde möchte das Unternehmen seine Arbeit fortsetzen und weitere große Unternehmen für seine Plattform gewinnen, um die Art und Weise, wie ihre Mitarbeiter auf Wissen zugreifen, zu vereinfachen.
Hebbia ist nicht das einzige Unternehmen in diesem Bereich. Andere Unternehmen erforschen auch KI-basierte Wissensabrufe für Unternehmen, darunter Glean. Dieses in Palo Alto, Kalifornien, ansässige Startup erreichte 2022 den Status eines Einhorn-Unternehmens und entwickelt ChatGPT-ähnliche Assistenten speziell für die Produktivität am Arbeitsplatz. Auch Akteure wie Vectara arbeiten an der Umsetzung universeller KI-Erlebnisse auf Basis von Unternehmensdaten.
Wichtigste Punkte:
👉 Hebbia erhält eine Serie-B-Finanzierung in Höhe von 130 Millionen US-Dollar, um eine lokalisierte Produktivitätsschnittstelle für LLMs zu entwickeln, die es einfacher macht, Wert aus Daten zu gewinnen.
👉 Hebbias KI-gestützter Co-Pilot Matrix kann alle in Dokumenten enthaltenen Informationen analysieren und die benötigten Inhalte in strukturierter Form extrahieren.
👉 Hebbia arbeitet bereits mit Institutionen wie der CharlesBank, Center View Partners und der US Air Force zusammen und verfügt über mehr als 1000 Anwendungsfälle.