テンセントの研究者らは、大規模言語モデル(LLM)の性能は、インスタンス化されたエージェントの数を増やすことで向上することを発見しました。複雑な複数LLMエージェント連携フレームワークは必要ありません。実験結果によると、複数の小型LMを統合することで、より大型のLMを上回る性能を実現できることが示されました。論文では、性能向上と問題の難易度との関係について考察し、段階的サンプリングと投票、階層的サンプリングと投票という2つの最適化戦略を提案しています。