OLMo 2 13BはAllen Institute for AI (Ai2)によって開発された、Transformerベースの自己回帰言語モデルです。英語の学術ベンチマークテストに特化しており、5兆トークンという大規模なデータセットで訓練されました。同規模のオープンソースモデルと同等かそれ以上の性能を示し、MetaやMistralのオープンウェイトモデルと英語学術ベンチマークにおいて競合しています。OLMo 2 13Bの公開には、すべてのコード、チェックポイント、ログ、および関連するトレーニングの詳細が含まれており、言語モデルの科学研究を促進することを目的としています。