Depuis sa sortie, la dernière version 2.6 de MiniCPM-V, le petit canon de la modélisation linguistique, a rapidement grimpé dans le top 3 des classements des célèbres communautés open source GitHub et Hugging Face, dépassant même les 10 000 étoiles sur GitHub. Depuis ses débuts le 1er février, la série MiniCPM a cumulé plus d'un million de téléchargements, devenant une référence importante pour mesurer les capacités des modèles embarqués.

微信截图_20240813081342.png

MiniCPM-V2.6, avec ses 8 milliards de paramètres, offre une amélioration significative des performances en matière de compréhension d'images uniques, multiples et de vidéos, surpassant même GPT-4V. Ce modèle multi-modal embarqué intègre pour la première fois des fonctionnalités haut de gamme telles que la compréhension vidéo en temps réel, la compréhension conjointe de plusieurs images et l'ICL multi-images. Après quantification, il n'occupe que 6 Go de mémoire embarquée et sa vitesse d'inférence atteint 18 jetons/s, soit 33 % plus rapide que la génération précédente. Il est compatible avec llama.cpp, ollama, vllm et prend en charge plusieurs langues.

Cette percée technologique a suscité un vif intérêt au sein de la communauté technologique mondiale, de nombreux développeurs et membres de la communauté manifestant un grand enthousiasme pour la sortie de MiniCPM-V2.6.

Actuellement, les adresses open source de MiniCPM-V2.6 sur GitHub et Hugging Face sont publiques, ainsi que des liens vers des tutoriels de déploiement pour llama.cpp, ollama et vllm.

Adresse GitHub open source de MiniCPM-V2.6 :

https://github.com/OpenBMB/MiniCPM-V

Adresse Hugging Face open source de MiniCPM-V2.6 :

https://huggingface.co/openbmb/MiniCPM-V-2_6

Adresse des tutoriels de déploiement llama.cpp, ollama, vllm :

https://modelbest.feishu.cn/docx/Duptdntfro2Clfx2DzuczHxAnhc