TinyLlama
Le projet TinyLlama vise à pré-entraîner un modèle Llama de 1,1 milliard de paramètres sur 3 000 milliards de jetons. Grâce à quelques optimisations appropriées, nous avons pu réaliser cela en seulement 90 jours avec 16 GPU A100-40G. L'entraînement a commencé le 1er septembre 2023.
Produit OrdinaireChatModèle pré-entraînéChat
Le projet TinyLlama vise à pré-entraîner un modèle Llama de 1,1 milliard de paramètres sur 3 000 milliards de jetons. Grâce à quelques optimisations appropriées, nous avons pu le faire en seulement 90 jours avec 16 GPU A100-40G. L'entraînement a commencé le 1er septembre 2023. Nous avons utilisé la même architecture et le même tokeniseur que Llama 2. Cela signifie que TinyLlama peut être utilisé dans de nombreux projets open source basés sur Llama. De plus, avec seulement 1,1 milliard de paramètres, sa compacité répond aux besoins de nombreuses applications aux ressources de calcul et de mémoire limitées.
TinyLlama Dernière situation du trafic
Nombre total de visites mensuelles
29742941
Taux de rebond
44.20%
Nombre moyen de pages par visite
5.9
Durée moyenne de la visite
00:04:44