Hebbia, con sede en Nueva York, ha anunciado una ronda de financiación Serie B de 130 millones de dólares, con la participación de Andreessen Horowitz, Index Ventures, Peter Thiel y la división de capital riesgo de Google.

Hebbia está construyendo algo bastante sencillo: una interfaz de productividad localizada para LLM que facilita la obtención de valor de los datos, independientemente de su tipo o tamaño. La empresa ya colabora con grandes compañías del sector de servicios financieros, incluyendo fondos de cobertura y bancos de inversión, y planea extender su tecnología a más empresas en los próximos días.

image.png

Acceso al producto: https://top.aibase.com/tool/hebbia

Aunque los chatbots basados en LLM pueden basarse en documentos internos o de instrucciones, muchos han observado que estos asistentes no pueden responder preguntas complejas sobre las funciones del negocio. En algunos casos, el problema es la ventana de contexto, que no puede manejar el tamaño de los documentos proporcionados; en otros, la complejidad de la consulta impide que el modelo la resuelva con precisión. Los errores incluso pueden afectar la confianza del equipo en los modelos lingüísticos.

Hebbia soluciona esta brecha ofreciendo Matrix, un copiloto de agente relacionado con LLM. Este producto se encuentra dentro del entorno empresarial de la compañía y permite a los trabajadores del conocimiento plantear preguntas complejas relacionadas con documentos internos -desde PDF, hojas de cálculo y documentos de Word hasta transcripciones de audio- con una ventana de contexto ilimitada.

Una vez que el usuario proporciona la consulta y los documentos/archivos relevantes, Matrix los descompone en operaciones más pequeñas que el LLM puede ejecutar. Esto le permite analizar toda la información contenida en los documentos de una sola vez y extraer el contenido necesario de forma estructurada. Hebbia afirma que la plataforma permite al modelo razonar sobre cualquier cantidad (de millones a miles de millones de documentos) y modalidades de datos, proporcionando al mismo tiempo referencias relevantes para ayudar al usuario a rastrear cada operación y comprender cómo la plataforma llega a la respuesta final.

Con la última ronda de financiación, la empresa espera continuar con este trabajo y atraer a más grandes empresas para que utilicen su plataforma y simplifiquen la forma en que sus empleados recuperan información.

Hebbia no es la única empresa en este campo. Otras empresas también están explorando la recuperación de información basada en IA para empresas, incluyendo Glean. Esta startup con sede en Palo Alto, California, alcanzó el estatus de unicornio en 2022 y se especializa en la construcción de asistentes similares a ChatGPT para la productividad en el lugar de trabajo. También hay participantes como Vectara que están trabajando para lograr una experiencia de IA generalizada basada en datos empresariales.

Puntos clave:

👉 Hebbia obtiene 130 millones de dólares en una ronda de financiación Serie B para crear una interfaz de productividad localizada para LLM que facilita la obtención de valor de los datos.

👉 El copiloto de agente Matrix de Hebbia puede analizar toda la información contenida en los documentos y extraer el contenido necesario de forma estructurada.

👉 Hebbia ya ha colaborado con instituciones como CharlesBank, Center View Partners y la Fuerza Aérea de los Estados Unidos, contando con más de 1000 casos de uso reales.