Groq ha recaudado con éxito 640 millones de dólares en su última ronda de financiación, liderada por un fondo de BlackRock Inc., la mayor empresa de gestión de activos del mundo, y con el firme apoyo de gigantes tecnológicos como Cisco y la división de inversión del gigante electrónico surcoreano Samsung.
Esta ronda de financiación ha elevado la valoración de Groq a 2800 millones de dólares, lo que demuestra el alto reconocimiento de los inversores a su tecnología y perspectivas de desarrollo. El auge de Groq supone un desafío considerable para Nvidia, que ha dominado durante mucho tiempo el mercado de chips de IA.
Aún más destacable es el reciente anuncio de Groq de que Yann LeCun, prestigioso pionero de la inteligencia artificial y ganador del Premio Turing, se unirá a la empresa como asesor técnico. La incorporación de LeCun sin duda dará un gran impulso a Groq en el competitivo sector de los chips, y refleja la ambición de la empresa en materia de innovación tecnológica.
Sin embargo, el camino para desafiar a Nvidia no está exento de dificultades. Algunos analistas señalan que, aunque Groq muestra un enorme potencial, para realmente sacudir la posición de mercado de Nvidia, aún debe superar pruebas en cuanto a madurez del producto, desarrollo del ecosistema y comercialización a gran escala.
Anteriormente, Groq lanzó una nueva función que ha llamado la atención de la industria: los usuarios pueden utilizar directamente modelos de lenguaje extenso (LLM) en su sitio web para realizar consultas casi instantáneas y diversas tareas complejas.
Según se informa, Groq lanzó este servicio la semana pasada de forma silenciosa. Según las pruebas, la velocidad de respuesta de Groq alcanza la asombrosa cifra de aproximadamente 1256,54 tokens por segundo, lo que se puede considerar prácticamente una respuesta instantánea. Esta cifra supone una mejora significativa respecto a los 800 tokens por segundo que la empresa mostró en abril, lo que demuestra la rápida evolución de su tecnología.
Jonathan Ross, CEO de Groq, declaró en una entrevista: "Nuestra tecnología revolucionará la forma en que las personas utilizan los LLM. Una vez que experimenten esta velocidad sin precedentes, los usuarios se darán cuenta del ilimitado potencial de los LLM."
Actualmente, el sitio web de Groq utiliza de forma predeterminada el modelo Llama3-8b-8192 de código abierto de Meta, pero también admite el más potente Llama3-70b y algunos modelos de Google como Gemma y Mistral. Ross reveló que en el futuro se ampliará la gama de modelos compatibles para satisfacer las necesidades de los diferentes usuarios.
En la experiencia práctica, se ha comprobado que Groq no solo sorprende por su velocidad, sino también por la versatilidad y flexibilidad de sus funciones. Ya sea para generar descripciones de puestos, redactar artículos o realizar modificaciones instantáneas, todo se completa a una velocidad asombrosa. Cabe destacar que Groq también admite la entrada de voz, utilizando el último modelo Whisper Large V3 de OpenAI para el reconocimiento y la traducción de voz.
Expertos del sector señalan que la eficiencia de Groq se debe en gran medida a su unidad de procesamiento de lenguaje (LPU) de desarrollo propio. En comparación con las GPU tradicionales, la LPU muestra una mayor eficiencia y un menor consumo de energía al procesar tareas LLM. Según Groq, su tecnología consume solo una décima parte de la energía de las GPU en la mayoría de las cargas de trabajo, lo que supone un desafío importante para el panorama actual de la computación de IA dominado por las GPU. Desde el lanzamiento del servicio hace 16 semanas, Groq ha atraído a más de 282.000 desarrolladores. La empresa también ofrece una forma sencilla de migrar las aplicaciones desarrolladas originalmente en la plataforma OpenAI, lo que facilita aún más el uso para los desarrolladores.
Ante estos resultados tan brillantes, el sector se pregunta si Groq realmente puede desafiar la posición de los gigantes actuales de la IA. Ross se muestra muy confiado. Atrevidamente predice que para el próximo año, más de la mitad de los cálculos de inferencia se realizarán en los chips de Groq.
Sin embargo, algunos analistas mantienen una actitud cautelosa. Señalan que, aunque Groq muestra un gran potencial tecnológico, para desafiar realmente a los gigantes establecidos del sector, aún se enfrenta a numerosos desafíos, como el conocimiento del mercado, el desarrollo del ecosistema y la comercialización a gran escala.
En cualquier caso, la irrupción de Groq ha inyectado una nueva vitalidad en el sector de la IA. En la próxima conferencia VentureBeat 2024 Transform, Ross será el ponente inaugural, y posiblemente revele más planes de futuro para Groq.
Con la rápida evolución de la tecnología de IA, la innovación de Groq sin duda ofrece nuevas posibilidades al sector. No solo muestra las amplias perspectivas de las aplicaciones LLM, sino que también indica una nueva dirección para la popularización y la implementación eficiente de la IA. Es razonable esperar que, en un futuro próximo, la tecnología de IA se integrará en nuestra vida diaria y nuestro trabajo con mayor velocidad, menor coste y mayor eficiencia.