A Groq arrecadou US$ 640 milhões em sua mais recente rodada de financiamento, liderada por fundos da BlackRock Inc., a maior empresa de gestão de ativos do mundo, e com o forte apoio da gigante de tecnologia Cisco e da divisão de investimentos da Samsung, a gigante eletrônica sul-coreana.

Esta rodada de financiamento elevou a avaliação da Groq para US$ 2,8 bilhões, demonstrando o alto reconhecimento dos investidores em sua tecnologia e perspectivas de crescimento. A ascensão da Groq representa, sem dúvida, um forte desafio para a Nvidia, que domina o mercado de chips de IA há muito tempo.

Ainda mais notável é o anúncio recente da Groq de que Yann LeCun, renomado pioneiro da inteligência artificial e ganhador do Prêmio Turing, se juntará à empresa como consultor técnico. A chegada de LeCun certamente dará um grande impulso à Groq em um mercado de chips altamente competitivo, e também demonstra a ambição da empresa em inovação tecnológica.

No entanto, o caminho para desafiar a Nvidia não é fácil. Analistas apontam que, embora a Groq demonstre um enorme potencial, para realmente abalar a posição de mercado da Nvidia, ela ainda precisa superar desafios em termos de maturidade do produto, construção do ecossistema e comercialização em larga escala.

Anteriormente, a Groq lançou um novo recurso notável: os usuários podem usar modelos de linguagem grandes (LLMs) diretamente em seu site, realizando consultas quase instantâneas e várias tarefas complexas.

QQ截图20240806142246.jpg

Segundo informações, a Groq lançou silenciosamente este serviço na semana passada. De acordo com testes, a velocidade de resposta da Groq atingiu a surpreendente marca de aproximadamente 1256,54 tokens por segundo, praticamente uma resposta instantânea. Este dado representa um aumento significativo em relação aos 800 tokens por segundo demonstrados pela empresa em abril, mostrando o rápido progresso de sua tecnologia.

O CEO da Groq, Jonathan Ross, disse em entrevista: "Nossa tecnologia mudará completamente a maneira como as pessoas usam LLMs. Depois de experimentar essa velocidade sem precedentes, os usuários perceberão o potencial ilimitado dos LLMs."

Atualmente, o site da Groq usa por padrão o modelo Llama3-8b-8192 de código aberto do Meta, mas também suporta o mais poderoso Llama3-70b e alguns modelos do Google, como Gemma e Mistral. Ross revelou que, no futuro, a empresa expandirá ainda mais a gama de modelos suportados para atender às necessidades de diferentes usuários.

Na experiência prática, descobrimos que a Groq não apenas impressiona na velocidade, mas também na versatilidade e flexibilidade de seus recursos. Seja gerando descrições de vagas, escrevendo artigos ou fazendo edições instantâneas, tudo é feito em uma velocidade impressionante. Vale destacar também o suporte a entrada de voz, que utiliza o mais recente modelo Whisper Large V3 da OpenAI para reconhecimento e tradução de voz.

Especialistas do setor afirmam que o desempenho tão eficiente da Groq se deve em grande parte à sua unidade de processamento de linguagem (LPU) desenvolvida internamente. Em comparação com as GPUs tradicionais, a LPU apresenta maior eficiência e menor consumo de energia no processamento de tarefas LLM. Segundo a Groq, sua tecnologia consome apenas um décimo da energia de uma GPU na maioria das cargas de trabalho, um dado que representa um sério desafio para o cenário atual de computação de IA dominado por GPUs. Desde o lançamento do serviço há 16 semanas, a Groq já atraiu mais de 282.000 desenvolvedores. A empresa também oferece uma maneira conveniente de migrar aplicativos originalmente desenvolvidos na plataforma OpenAI, reduzindo ainda mais a barreira de entrada para os desenvolvedores.

Diante de resultados tão positivos, a indústria se pergunta: a Groq realmente pode abalar a posição das gigantes atuais da IA? Ross demonstra total confiança. Ele prevê que, até o próximo ano, mais da metade dos cálculos de inferência em todo o mundo serão realizados em chips Groq.

No entanto, alguns analistas mantêm uma postura cautelosa. Eles apontam que, embora a Groq demonstre um enorme potencial tecnológico, para realmente desafiar os gigantes estabelecidos do setor, ela ainda enfrenta muitos desafios, incluindo o reconhecimento de mercado, a construção do ecossistema e a comercialização em larga escala.

De qualquer forma, o surgimento da Groq injetou nova vitalidade no setor de IA. Na próxima conferência VentureBeat 2024 Transform, Ross será o palestrante de abertura, onde poderá revelar mais sobre os planos futuros da Groq.

Com a rápida evolução da tecnologia de IA, a inovação da Groq certamente trouxe novas possibilidades para todo o setor. Ela não apenas demonstra o amplo potencial de aplicação dos LLMs, mas também aponta para novas direções para a popularização e implantação eficiente da IA. Temos razões para acreditar que, em um futuro próximo, a tecnologia de IA será integrada em nossa vida diária e trabalho com maior velocidade, menor custo e maior eficiência.