Lors d'un dernier tour de financement, Groq a réussi à lever 640 millions de dollars, mené par un fonds de BlackRock Inc., la plus grande société de gestion d'actifs au monde, et soutenu par le géant technologique Cisco et la branche investissement du géant électronique sud-coréen Samsung.

Ce financement a propulsé la valorisation de Groq à 2,8 milliards de dollars, témoignant de la forte reconnaissance par les investisseurs de sa technologie et de ses perspectives de développement. L'ascension de Groq représente un défi de taille pour Nvidia, longtemps leader incontesté du marché des puces d'IA.

Plus remarquable encore, Groq a récemment annoncé que Yann LeCun, pionnier mondialement reconnu de l'intelligence artificielle et lauréat du prix Turing, allait rejoindre l'entreprise en tant que conseiller technique. L'arrivée de LeCun apporte un soutien considérable à Groq dans le domaine concurrentiel des puces, et souligne les ambitions de l'entreprise en matière d'innovation technologique.

Cependant, la route pour défier Nvidia n'est pas sans embûches. Des analystes soulignent que, malgré son potentiel énorme, Groq doit encore prouver sa maturité produit, développer son écosystème et réussir sa commercialisation à grande échelle pour véritablement ébranler la position de Nvidia.

Groq a précédemment lancé une nouvelle fonctionnalité remarquable : les utilisateurs peuvent utiliser directement des modèles linguistiques de grande taille (LLM) sur son site web pour effectuer des requêtes quasi instantanées et diverses tâches complexes.

QQ截图20240806142246.jpg

Selon les informations, Groq a mis en ligne ce service discrètement la semaine dernière. Des tests ont montré que la vitesse de réponse de Groq atteignait la vitesse impressionnante d'environ 1256,54 jetons par seconde, soit une réponse quasi instantanée. Ce chiffre représente une amélioration significative par rapport aux 800 jetons par seconde présentés par la société en avril, démontrant la rapidité des progrès technologiques.

Jonathan Ross, PDG de Groq, a déclaré lors d'une interview : « Notre technologie va révolutionner la façon dont les gens utilisent les LLM. Une fois qu'ils auront expérimenté cette vitesse inégalée, les utilisateurs réaliseront le potentiel infini des LLM. »

Actuellement, le site web de Groq utilise par défaut le modèle Llama3-8b-8192 open source de Meta, mais prend également en charge le plus puissant Llama3-70b ainsi que certains modèles Gemma et Mistral de Google. Ross a révélé que la société élargirait prochainement la gamme de modèles pris en charge pour répondre aux besoins des différents utilisateurs.

En pratique, Groq impressionne non seulement par sa vitesse, mais aussi par la diversité et la flexibilité de ses fonctionnalités. Que ce soit pour générer des descriptions de poste, rédiger des articles ou effectuer des modifications instantanées, tout est réalisé à une vitesse stupéfiante. Il est également important de noter que Groq prend en charge la saisie vocale, utilisant le dernier modèle Whisper Large V3 d'OpenAI pour la reconnaissance et la traduction vocale.

Des experts du secteur soulignent que les performances exceptionnelles de Groq sont en grande partie dues à son unité de traitement linguistique (LPU) développée en interne. Comparé aux GPU traditionnels, le LPU se montre plus efficace et moins énergivore pour le traitement des tâches LLM. Selon Groq, sa technologie consomme dix fois moins d'énergie que les GPU pour la plupart des charges de travail, ce qui représente un défi majeur pour le paysage actuel du calcul IA dominé par les GPU. Depuis le lancement du service il y a 16 semaines, Groq a attiré plus de 282 000 développeurs. La société a également facilité la migration des applications initialement développées sur la plateforme OpenAI, simplifiant ainsi l'utilisation pour les développeurs.

Face à ces résultats impressionnants, le secteur se demande si Groq peut réellement détrôner les géants actuels de l'IA. Ross se montre très confiant. Il prédit que plus de la moitié des calculs d'inférence dans le monde seront effectués sur les puces Groq d'ici l'année prochaine.

Cependant, certains analystes restent prudents. Ils soulignent que, malgré son potentiel technologique énorme, Groq doit relever de nombreux défis pour défier les acteurs établis, notamment en termes de notoriété, de développement de l'écosystème et de commercialisation à grande échelle.

Quoi qu'il en soit, l'arrivée de Groq apporte une nouvelle dynamique au secteur de l'IA. Lors de la conférence VentureBeat 2024 Transform à venir, Ross interviendra en tant que conférencier d'ouverture, et pourrait alors dévoiler de nouveaux projets pour Groq.

Avec les progrès constants de l'IA, les innovations de Groq offrent de nouvelles possibilités à l'ensemble du secteur. L'entreprise montre non seulement le vaste potentiel des applications LLM, mais elle ouvre également la voie à une adoption et un déploiement plus efficaces de l'IA. Nous pouvons légitimement espérer que, dans un avenir proche, l'IA sera intégrée à notre vie quotidienne et professionnelle plus rapidement, à moindre coût et avec une plus grande efficacité.