Die neueste Version 2.6 der MiniCPM-V-Serie, eine kompakte und leistungsstarke KI, hat seit ihrer Veröffentlichung rasant an Popularität gewonnen und sich in den Top 3 der Trendlisten der bekannten Open-Source-Communities GitHub und Hugging Face platziert. Die Anzahl der GitHub-Stars hat bereits die 10.000er-Marke überschritten.

微信截图_20240813081342.png

Seit dem Debüt am 1. Februar wurde MiniCPM mehr als eine Million Mal heruntergeladen und gilt als wichtiger Maßstab für die Leistungsfähigkeit von Edge-Modellen (Geräte-nahe Modelle).

MiniCPM-V2.6 erzielt mit seinen 8 Milliarden Parametern eine umfassende Performance-Steigerung im Verständnis von Einzelbildern, mehreren Bildern und Videos und übertrifft sogar GPT-4V. Dieses Edge-Multimodal-Modell integriert erstmalig hochentwickelte Funktionen wie Echtzeit-Videoanalyse, gemeinsames Verständnis mehrerer Bilder und Multi-Image-ICL (ich vermute hier eine Abkürzung für eine Bildanalysetechnik). Nach der Quantisierung benötigt es nur 6 GB Speicherplatz auf dem Endgerät und erreicht eine Inferenzgeschwindigkeit von 18 Tokens/Sekunde – 33 % schneller als sein Vorgängermodell. Es unterstützt llama.cpp, ollama und vllm Inferenz und ist mehrsprachig.

Dieser technologische Durchbruch hat in der globalen Technologiebranche für großes Aufsehen gesorgt, und viele Entwickler und Community-Mitglieder zeigen großes Interesse an der Veröffentlichung von MiniCPM-V2.6.

Die Open-Source-Adressen von MiniCPM-V2.6 auf GitHub und Hugging Face wurden veröffentlicht, ebenso wie Links zu Tutorials für die Bereitstellung mit llama.cpp, ollama und vllm.

MiniCPM-V2.6 GitHub Open-Source-Adresse:

https://github.com/OpenBMB/MiniCPM-V

MiniCPM-V2.6 Hugging Face Open-Source-Adresse:

https://huggingface.co/openbmb/MiniCPM-V-2_6

Tutorials zur Bereitstellung mit llama.cpp, ollama und vllm:

https://modelbest.feishu.cn/docx/Duptdntfro2Clfx2DzuczHxAnhc