La última versión 2.6 de MiniCPM-V, el pequeño cañón de pared, ha ascendido rápidamente al Top 3 en las listas de tendencias de las famosas comunidades de código abierto GitHub y HuggingFace a nivel mundial desde su lanzamiento, superando las 10,000 estrellas en GitHub. Desde su debut el 1 de febrero, la serie MiniCPM ha acumulado más de un millón de descargas, convirtiéndose en un importante estándar de medición para el límite de capacidad de los modelos de extremo.

微信截图_20240813081342.png

MiniCPM-V2.6, con sus 8B parámetros, ha logrado una mejora integral en el rendimiento de la comprensión de imágenes individuales, múltiples imágenes y videos, superando a GPT-4V. Este modelo multimodal de extremo integra por primera vez funciones de alta gama como comprensión de video en tiempo real, comprensión conjunta de múltiples imágenes y ICL multi-imagen. Tras la cuantificación, ocupa solo 6 GB de memoria en el extremo y alcanza una velocidad de inferencia de 18 tokens/s, un 33% más rápido que la generación anterior, y admite la inferencia llama.cpp, ollama y vllm, además de soportar múltiples idiomas.

Este avance tecnológico ha generado una gran respuesta en la comunidad tecnológica mundial, y muchos desarrolladores y miembros de la comunidad han mostrado un gran interés en el lanzamiento de MiniCPM-V2.6.

Actualmente, las direcciones de código abierto de MiniCPM-V2.6 en GitHub y Hugging Face ya están disponibles públicamente, junto con enlaces a tutoriales de implementación de llama.cpp, ollama y vllm.

Dirección de código abierto de MiniCPM-V2.6 en GitHub:

https://github.com/OpenBMB/MiniCPM-V

Dirección de código abierto de MiniCPM-V2.6 en Hugging Face:

https://huggingface.co/openbmb/MiniCPM-V-2_6

Dirección de los tutoriales de implementación de llama.cpp, ollama y vllm:

https://modelbest.feishu.cn/docx/Duptdntfro2Clfx2DzuczHxAnhc