InternVL2_5-26B-MPO es un modelo de lenguaje grande multimodales (MLLM) que, basándose en InternVL2.5, mejora aún más el rendimiento del modelo mediante la optimización de preferencias mixtas (Mixed Preference Optimization, MPO). Este modelo puede procesar datos multimodales que incluyen imágenes y texto, y se aplica ampliamente en escenarios como la descripción de imágenes y las preguntas y respuestas visuales. Su importancia radica en su capacidad para comprender y generar texto estrechamente relacionado con el contenido de la imagen, impulsando los límites de la inteligencia artificial multimodales. La información de antecedentes del producto incluye su excelente rendimiento en tareas multimodales y los resultados de la evaluación en OpenCompass Learderboard. Este modelo ofrece a investigadores y desarrolladores herramientas potentes para explorar y realizar el potencial de la inteligencia artificial multimodales.