LLaMA-O1
Marco de modelo de inferencia a gran escala, compatible con PyTorch y HuggingFace.
Producto ComúnProgramaciónModelo de inferencia a gran escalaBúsqueda de Monte Carlo en árbol
LLaMA-O1 es un marco de modelo de inferencia a gran escala que combina técnicas como la búsqueda de Monte Carlo en árbol (MCTS), el aprendizaje por refuerzo propio, y PPO, y se inspira en el paradigma de doble estrategia de AlphaGo Zero y los modelos de lenguaje a gran escala. Este modelo está principalmente dirigido a problemas de razonamiento matemático de nivel olímpico y proporciona una plataforma abierta para el entrenamiento, la inferencia y la evaluación. La información de contexto del producto indica que se trata de un proyecto experimental individual, sin relación con ninguna organización o institución externa.
LLaMA-O1 Situación del tráfico más reciente
Total de visitas mensuales
474564576
Tasa de rebote
36.20%
Páginas promedio por visita
6.1
Duración promedio de la visita
00:06:34