A última semana foi agitada no setor de IA, com o Google e o Meta lançando novas versões de seus modelos de IA e atraindo muita atenção. Primeiro, o Google anunciou na terça-feira novas atualizações para sua série Gemini, lançando dois novos modelos prontos para produção: Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002.
Essas atualizações melhoraram significativamente a qualidade geral dos modelos, especialmente em matemática, processamento de contextos longos e tarefas visuais. O Google afirma que o desempenho melhorou 7% no teste de referência MMLU-Pro, e o desempenho em tarefas relacionadas à matemática aumentou em 20%. Embora os testes de referência tenham limitações, esses dados são animadores para quem acompanha o setor de IA.
Além do aumento de desempenho, o Google reduziu significativamente o custo de uso do Gemini 1.5 Pro, com os custos de tokens de entrada e saída caindo 64% e 52%, respectivamente. Isso torna o Gemini mais acessível e econômico para desenvolvedores.
Além disso, as atualizações também melhoraram a velocidade de processamento de solicitações para o Gemini-1.5 Flash e Pro. O primeiro agora suporta 2000 solicitações por minuto, enquanto o último suporta 1000 solicitações por minuto. Essas melhorias ajudarão os desenvolvedores a construir aplicativos com mais facilidade.
Na quarta-feira, o Meta também não ficou parado, lançando o Llama 3.2, uma atualização significativa de seu modelo de IA de código aberto. Esta atualização inclui modelos de linguagem grandes com recursos visuais, com tamanhos de parâmetros variando de 1,1 bilhão a 9 bilhões, além de modelos de texto leves de 100 milhões e 300 milhões de parâmetros, projetados para dispositivos móveis.
O Meta afirma que esses modelos visuais são comparáveis aos principais modelos fechados do mercado em termos de reconhecimento e compreensão de imagens. Pesquisadores de IA testaram os novos modelos e descobriram que os modelos menores se saíram excepcionalmente bem em muitas tarefas de texto.
Na quinta-feira, o Google DeepMind anunciou oficialmente um projeto importante: o AlphaChip. Baseado em pesquisas de 2020, este projeto visa projetar layouts de chips usando aprendizado por reforço. O Google afirma que o AlphaChip já alcançou um "layout de chip superior ao humano" em suas três últimas gerações de unidades de processamento de tensor (TPUs), reduzindo o tempo de geração de layouts de chips de semanas ou meses (para humanos) para algumas horas.
Ainda mais notável é que o Google compartilhou o modelo de pré-treinamento do AlphaChip no GitHub, permitindo que outras empresas de design de chips usem essa tecnologia. Empresas como a MediaTek já estão adotando essa tecnologia.
Destaques:
📈 **O Google lança uma nova versão do modelo Gemini, melhorando o desempenho geral e reduzindo significativamente o preço.**
🤖 **O Meta lança o Llama 3.2, com modelos de linguagem menores com recursos visuais e excelente desempenho.**
💡 **O AlphaChip do Google acelera o design de chips, melhorando significativamente a eficiência do design e compartilhando a tecnologia.**