LLaMA-O1
Estrutura de modelo de raciocínio em larga escala, compatível com PyTorch e HuggingFace.
Produto ComumProgramaçãoModelo de raciocínio em larga escalaBusca em árvore Monte Carlo
LLaMA-O1 é uma estrutura de modelo de raciocínio em larga escala que combina técnicas como busca em árvore Monte Carlo (MCTS), aprendizado por reforço próprio, e PPO. Ela também se baseia no paradigma de dupla estratégia do AlphaGo Zero e em modelos de linguagem grandes. O modelo é principalmente direcionado a problemas de raciocínio matemático de nível olímpico, fornecendo uma plataforma aberta para treinamento, inferência e avaliação. Informações de contexto indicam que este é um projeto experimental individual, sem relação com qualquer organização ou instituição de terceiros.
LLaMA-O1 Situação do Tráfego Mais Recente
Total de Visitas Mensais
474564576
Taxa de Rejeição
36.20%
Média de Páginas por Visita
6.1
Duração Média da Visita
00:06:34