MoA
बड़े भाषा मॉडल के प्रदर्शन को बढ़ाने वाली मिश्रित एजेंट तकनीक
सामान्य उत्पादप्रोग्रामिंगभाषा मॉडलप्रदर्शन वृद्धि
MoA (मिश्रण एजेंट) एक नया तरीका है जो कई बड़े भाषा मॉडल (LLM) के सामूहिक लाभों का उपयोग करके प्रदर्शन को बढ़ाता है और अत्याधुनिक परिणाम प्राप्त करता है। MoA एक स्तरीय संरचना का उपयोग करता है, जिसमें प्रत्येक स्तर में कई LLM एजेंट होते हैं। यह AlpacaEval 2.0 पर GPT-4 Omni के 57.5% स्कोर को पार करके 65.1% का स्कोर प्राप्त करता है, और केवल ओपन-सोर्स मॉडल का उपयोग करता है।
MoA नवीनतम ट्रैफ़िक स्थिति
मासिक कुल विज़िट
474564576
बाउंस दर
36.20%
प्रति विज़िट औसत पृष्ठ
6.1
औसत विज़िट अवधि
00:06:34