OLMo-2-1124-7B-DPOは、Allen Institute for AIによって開発された大規模言語モデルです。特定のデータセットを用いた教師ありファインチューニングと、DPOトレーニングが施されています。チャット、数学問題解答、テキスト生成など、様々なタスクにおいて高性能な結果を提供することを目指しています。Transformersライブラリを基盤として構築され、PyTorchに対応し、Apache 2.0ライセンスで公開されています。