LLaMA-O1

PyTorchとHuggingFaceに対応した大規模推論モデルフレームワーク。

一般製品プログラミング大規模推論モデルモンテカルロ木探索
LLaMA-O1は大規模推論モデルフレームワークであり、モンテカルロ木探索(MCTS)、自己強化学習、PPOなどの技術を統合し、AlphaGo Zeroの二重戦略パラダイムと大規模言語モデルを参考にしています。主にオリンピックレベルの数学的推論問題を対象とし、トレーニング、推論、評価のためのオープンなプラットフォームを提供します。これは個人的な実験プロジェクトであり、いかなる第三者組織や機関とも無関係であることを、製品背景情報として明記します。
ウェブサイトを開く

LLaMA-O1 最新のトラフィック状況

月間総訪問数

474564576

直帰率

36.20%

平均ページ/訪問

6.1

平均訪問時間

00:06:34

LLaMA-O1 訪問数の傾向

LLaMA-O1 訪問地理的分布

LLaMA-O1 トラフィックソース

LLaMA-O1 代替品