MoA (मिश्रण एजेंट) एक नया तरीका है जो कई बड़े भाषा मॉडल (LLM) के सामूहिक लाभों का उपयोग करके प्रदर्शन को बढ़ाता है और अत्याधुनिक परिणाम प्राप्त करता है। MoA एक स्तरीय संरचना का उपयोग करता है, जिसमें प्रत्येक स्तर में कई LLM एजेंट होते हैं। यह AlpacaEval 2.0 पर GPT-4 Omni के 57.5% स्कोर को पार करके 65.1% का स्कोर प्राप्त करता है, और केवल ओपन-सोर्स मॉडल का उपयोग करता है।