Des chercheurs de Tencent ont découvert que les performances des grands modèles de langage (LLM) s'améliorent avec l'augmentation du nombre d'agents instanciés, sans nécessiter de cadre de collaboration complexe entre plusieurs agents LLM. Les résultats expérimentaux montrent que l'intégration de plusieurs petits modèles de langage (LM) peut surpasser les performances d'un LLM plus grand. L'article explore la relation entre l'amélioration des performances et la difficulté du problème, et propose deux stratégies d'optimisation : l'échantillonnage et le vote progressifs, et l'échantillonnage et le vote hiérarchiques.