LLaMA-O1

Marco de modelo de inferencia a gran escala, compatible con PyTorch y HuggingFace.

Producto ComúnProgramaciónModelo de inferencia a gran escalaBúsqueda de Monte Carlo en árbol
LLaMA-O1 es un marco de modelo de inferencia a gran escala que combina técnicas como la búsqueda de Monte Carlo en árbol (MCTS), el aprendizaje por refuerzo propio, y PPO, y se inspira en el paradigma de doble estrategia de AlphaGo Zero y los modelos de lenguaje a gran escala. Este modelo está principalmente dirigido a problemas de razonamiento matemático de nivel olímpico y proporciona una plataforma abierta para el entrenamiento, la inferencia y la evaluación. La información de contexto del producto indica que se trata de un proyecto experimental individual, sin relación con ninguna organización o institución externa.
Abrir sitio web

LLaMA-O1 Situación del tráfico más reciente

Total de visitas mensuales

474564576

Tasa de rebote

36.20%

Páginas promedio por visita

6.1

Duración promedio de la visita

00:06:34

LLaMA-O1 Tendencia de visitas

LLaMA-O1 Distribución geográfica de las visitas

LLaMA-O1 Fuentes de tráfico

LLaMA-O1 Alternativas