LLaMA-O1
Framework de modèle d'inférence à grande échelle, compatible avec PyTorch et Hugging Face.
Produit OrdinaireProgrammationModèle d'inférence à grande échelleRecherche d'arbre Monte-Carlo
LLaMA-O1 est un framework de modèle d'inférence à grande échelle qui combine des techniques telles que la recherche d'arbre Monte-Carlo (MCTS), l'apprentissage par renforcement autodidacte, et PPO. Il s'inspire du paradigme de double stratégie d'AlphaGo Zero et des grands modèles linguistiques. Ce modèle est principalement destiné aux problèmes de raisonnement mathématique de niveau olympique et offre une plateforme ouverte pour l'entraînement, l'inférence et l'évaluation. Il s'agit d'un projet expérimental personnel, sans lien avec aucune organisation ou institution tierce.
LLaMA-O1 Dernière situation du trafic
Nombre total de visites mensuelles
474564576
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:34