InternVL2-8B-MPO एक बहुविधा बड़ा भाषा मॉडल (MLLM) है, जो मिश्रित प्राथमिकता अनुकूलन (MPO) प्रक्रिया को शामिल करके मॉडल की बहुविधा तर्क क्षमता को बढ़ाता है। इस मॉडल में डेटा के संबंध में स्वचालित प्राथमिकता डेटा निर्माण पाइपलाइन तैयार की गई है, और MMPR नामक एक बड़ा बहुविधा तर्क प्राथमिकता डेटासेट बनाया गया है। मॉडल के संबंध में, InternVL2-8B-MPO InternVL2-8B से आरंभ किया गया है, और MMPR डेटासेट का उपयोग करके इसे बेहतर बनाया गया है, जिससे यह अधिक मजबूत बहुविधा तर्क क्षमता प्रदर्शित करता है, और भ्रम की घटनाएँ कम होती हैं। इस मॉडल ने MathVista पर 67.0% की सटीकता हासिल की है, जो InternVL2-8B से 8.7 अंक अधिक है, और यह InternVL2-76B (जो इससे 10 गुना बड़ा है) के करीब प्रदर्शन करता है।