InternVL2_5-1B-MPO es un modelo de lenguaje grande multimodal (MLLM) construido sobre InternVL2.5 y optimización de preferencias mixtas (MPO), que demuestra un rendimiento general superior. Este modelo integra InternViT con preentrenamiento incremental y varios modelos de lenguaje grandes (LLM) preentrenados, incluyendo InternLM 2.5 y Qwen 2.5, utilizando proyectores MLP con inicialización aleatoria. InternVL2_5-MPO mantiene el paradigma "ViT-MLP-LLM" en su arquitectura, igual que InternVL 2.5 y sus predecesores, e introduce soporte para datos de múltiples imágenes y videos. El modelo destaca en tareas multimodales, pudiendo gestionar diversas tareas de lenguaje visual, incluyendo descripción de imágenes y preguntas y respuestas visuales.