InternVL2_5-8B
Modelo de lenguaje grande multimodal que admite la comprensión interactiva de imágenes y texto.
Producto ComúnImagenMultimodalModelo de lenguaje grande
InternVL2_5-8B es un modelo de lenguaje grande multimodal (MLLM) desarrollado por OpenGVLab. Se basa en InternVL 2.0, pero con mejoras significativas en las estrategias de entrenamiento y prueba, así como en la calidad de los datos. El modelo utiliza la arquitectura 'ViT-MLP-LLM', integrando InternViT con preentrenamiento incremental y varios modelos de lenguaje preentrenados, como InternLM 2.5 y Qwen 2.5, utilizando un proyector MLP con inicialización aleatoria. Los modelos de la serie InternVL 2.5 muestran un rendimiento excepcional en tareas multimodales, incluyendo la comprensión de imágenes y vídeo, y la comprensión multilingüe.
InternVL2_5-8B Situación del tráfico más reciente
Total de visitas mensuales
29742941
Tasa de rebote
44.20%
Páginas promedio por visita
5.9
Duración promedio de la visita
00:04:44