InternVL2.5-MPO InternVL2.5 और मिश्रित प्राथमिकता अनुकूलन (MPO) पर आधारित एक बहु-मोडल बड़ा भाषा मॉडल श्रृंखला है। यह बहु-मोडल कार्यों में उत्कृष्ट प्रदर्शन करता है, हाल ही में वृद्धिशील पूर्व-प्रशिक्षित InternViT को कई पूर्व-प्रशिक्षित बड़े भाषा मॉडल (LLM) जैसे InternLM 2.5 और Qwen 2.5 के साथ एकीकृत करके, यादृच्छिक रूप से आरंभ किए गए MLP प्रोजेक्टर का उपयोग करता है। इस मॉडल श्रृंखला को बहु-मोडल अनुमान प्राथमिकता डेटासेट MMPR पर प्रशिक्षित किया गया है, जिसमें लगभग 3 मिलियन नमूने शामिल हैं, प्रभावी डेटा निर्माण प्रक्रिया और मिश्रित प्राथमिकता अनुकूलन तकनीक के माध्यम से, मॉडल की अनुमान क्षमता और उत्तर गुणवत्ता में वृद्धि हुई है।