Mobiwall Intelligence a annoncé que, en tant que contributeur et bénéficiaire de la communauté open source, Mobiwall Intelligence, OpenBMB & le laboratoire de NLP de Tsinghua ont décidé, après mûre réflexion, de rendre le MiniCPM « petit canon » de Mobiwall gratuit pour un usage commercial. Cela inclut les modèles MiniCPM et MiniCPM-V, désormais ouverts à un usage commercial gratuit pour les chercheurs universitaires et les particuliers dès aujourd'hui. Cette initiative stimulera sans aucun doute l'innovation et le développement dans les milieux académique et commercial.
Ouverture aux milieux académique et commercial : favoriser le partage des connaissances et le progrès technologique
Les poids des modèles de la série MiniCPM seront entièrement ouverts aux chercheurs universitaires afin de favoriser le partage des connaissances et le progrès de la recherche académique. Parallèlement, les entreprises et les particuliers pourront utiliser ces modèles à des fins commerciales après un simple enregistrement via un questionnaire. Cette stratégie ouverte témoigne non seulement du soutien à la recherche universitaire, mais aussi de l'encouragement à l'innovation commerciale.
Respect des accords de licence pour une utilisation conforme
Il est important de noter que les membres de la communauté qui utilisent les modèles de la série MiniCPM doivent se conformer à la licence Apache2.0 et à l'« Accord de licence communautaire des modèles MiniCPM ». Cela garantit la conformité de l'utilisation des modèles et protège les droits des développeurs et des utilisateurs.
MiniCPM-Llama3-V2.5 : performances exceptionnelles, accélération multimodale sur les appareils périphériques
MiniCPM-Llama3-V2.5 se distingue par ses performances exceptionnelles. Ce modèle surpasse Gemini Pro et GPT-4V en termes de performances multimodales globales sur les appareils périphériques, atteignant notamment un niveau SOTA (State of the Art) en matière de capacité OCR, capable de reconnaître précisément de longs textes dans des images complexes.
Efficacité énergétique élevée, prise en charge de plusieurs langues
Un autre point fort de MiniCPM-Llama3-V2.5 est son efficacité énergétique. Sur un téléphone mobile, il ne nécessite que 8 Go de mémoire vidéo et, associé à une carte graphique NVIDIA GeForce RTX4070, permet une inférence rapide et une vitesse d'exécution extrêmement élevée. De plus, la vitesse de codage des images a été multipliée par 150, permettant pour la première fois une accélération multimodale au niveau du système sur les appareils périphériques. Plus impressionnant encore, ce modèle prend en charge plus de 30 langues, offrant un support puissant pour les environnements multilingues.
Modèles de la série MiniCPM : moteurs de l'innovation
Avec la mise à disposition gratuite des modèles de la série MiniCPM à des fins commerciales, nous nous attendons à voir émerger de nombreuses applications innovantes. Que ce soit pour la recherche universitaire ou les applications commerciales, les modèles de la série MiniCPM seront des moteurs de l'innovation, ayant un impact profond sur tous les secteurs d'activité.