Investigadores de Tencent descubrieron que el rendimiento de los modelos lingüísticos grandes (LLM) aumenta al incrementar el número de agentes instanciados, sin necesidad de complejos marcos de colaboración entre múltiples agentes LLM. Los resultados experimentales muestran que la integración de múltiples LLM pequeños puede superar el rendimiento de un LLM más grande. El artículo analiza la relación entre la mejora del rendimiento y la dificultad del problema, y propone dos estrategias de optimización: muestreo y votación gradual, y muestreo y votación jerárquico.