La última versión 2.6 de MiniCPM-V, el pequeño cañón de pared, ha ascendido rápidamente al Top 3 en las listas de tendencias de las famosas comunidades de código abierto GitHub y HuggingFace a nivel mundial desde su lanzamiento, superando las 10,000 estrellas en GitHub. Desde su debut el 1 de febrero, la serie MiniCPM ha acumulado más de un millón de descargas, convirtiéndose en un importante estándar de medición para el límite de capacidad de los modelos de extremo.
MiniCPM-V2.6, con sus 8B parámetros, ha logrado una mejora integral en el rendimiento de la comprensión de imágenes individuales, múltiples imágenes y videos, superando a GPT-4V. Este modelo multimodal de extremo integra por primera vez funciones de alta gama como comprensión de video en tiempo real, comprensión conjunta de múltiples imágenes y ICL multi-imagen. Tras la cuantificación, ocupa solo 6 GB de memoria en el extremo y alcanza una velocidad de inferencia de 18 tokens/s, un 33% más rápido que la generación anterior, y admite la inferencia llama.cpp, ollama y vllm, además de soportar múltiples idiomas.
Este avance tecnológico ha generado una gran respuesta en la comunidad tecnológica mundial, y muchos desarrolladores y miembros de la comunidad han mostrado un gran interés en el lanzamiento de MiniCPM-V2.6.
Actualmente, las direcciones de código abierto de MiniCPM-V2.6 en GitHub y Hugging Face ya están disponibles públicamente, junto con enlaces a tutoriales de implementación de llama.cpp, ollama y vllm.
Dirección de código abierto de MiniCPM-V2.6 en GitHub:
https://github.com/OpenBMB/MiniCPM-V
Dirección de código abierto de MiniCPM-V2.6 en Hugging Face:
https://huggingface.co/openbmb/MiniCPM-V-2_6
Dirección de los tutoriales de implementación de llama.cpp, ollama y vllm:
https://modelbest.feishu.cn/docx/Duptdntfro2Clfx2DzuczHxAnhc