MoA
Técnica de agentes híbridos para aprimorar o desempenho de modelos de linguagem grandes
Produto ComumProgramaçãoIAModelo de Linguagem
MoA (Mixture of Agents) é um método inovador que utiliza as vantagens coletivas de múltiplos modelos de linguagem grandes (LLMs) para melhorar o desempenho, alcançando resultados de ponta. MoA emprega uma arquitetura hierárquica, com diversas instâncias de LLM agente em cada camada, superando significativamente a pontuação de 57,5% do GPT-4 Omni no AlpacaEval 2.0, atingindo 65,1%, utilizando apenas modelos de código aberto.
MoA Situação do Tráfego Mais Recente
Total de Visitas Mensais
474564576
Taxa de Rejeição
36.20%
Média de Páginas por Visita
6.1
Duração Média da Visita
00:06:34