LLaMA-O1

Framework de modèle d'inférence à grande échelle, compatible avec PyTorch et Hugging Face.

Produit OrdinaireProgrammationModèle d'inférence à grande échelleRecherche d'arbre Monte-Carlo
LLaMA-O1 est un framework de modèle d'inférence à grande échelle qui combine des techniques telles que la recherche d'arbre Monte-Carlo (MCTS), l'apprentissage par renforcement autodidacte, et PPO. Il s'inspire du paradigme de double stratégie d'AlphaGo Zero et des grands modèles linguistiques. Ce modèle est principalement destiné aux problèmes de raisonnement mathématique de niveau olympique et offre une plateforme ouverte pour l'entraînement, l'inférence et l'évaluation. Il s'agit d'un projet expérimental personnel, sans lien avec aucune organisation ou institution tierce.
Ouvrir le site Web

LLaMA-O1 Dernière situation du trafic

Nombre total de visites mensuelles

474564576

Taux de rebond

36.20%

Nombre moyen de pages par visite

6.1

Durée moyenne de la visite

00:06:34

LLaMA-O1 Tendance des visites

LLaMA-O1 Distribution géographique des visites

LLaMA-O1 Sources de trafic

LLaMA-O1 Alternatives