Des chercheurs de Tencent ont découvert que les performances des grands modèles de langage (LLM) s'améliorent avec l'augmentation du nombre d'agents instanciés, sans nécessiter de cadre de collaboration complexe entre plusieurs agents LLM. Les résultats expérimentaux montrent que l'intégration de plusieurs petits modèles de langage (LM) peut surpasser les performances d'un LLM plus grand. L'article explore la relation entre l'amélioration des performances et la difficulté du problème, et propose deux stratégies d'optimisation : l'échantillonnage et le vote progressifs, et l'échantillonnage et le vote hiérarchiques.
Tencent révèle : plus le nombre d'agents est élevé, meilleur est le résultat des grands modèles de langage

机器之心
40
© Tous droits réservés AIbase基地 2024, cliquez pour voir la source -https://www.aibase.com/fr/news/5983