XVERSE-7B : Un grand modèle linguistique open source

Yuanxiang annonce la publication en open source de son grand modèle linguistique polyvalent XVERSE-7B, comprenant une version de base et une version conversationnelle, toutes deux dotées de 7 milliards de paramètres. Il s'agit d'un modèle entièrement open source, gratuit et utilisable commercialement.

Comparé à son prédécesseur, XVERSE-13B, la version 7B est plus compacte. Elle peut fonctionner sur une seule carte graphique grand public et, après quantification pour l'inférence, ne nécessite que 6 Go de VRAM minimum, réduisant ainsi considérablement le seuil d'entrée et les coûts d'inférence.

Ce modèle a démontré d'excellentes performances dans plusieurs tests de référence et possède de solides capacités de cognition, de planification, de raisonnement et de mémorisation. Il prend en charge plus de 40 langues.