この度、北京月之暗面科技有限公司は、傘下のインテリジェントアシスタントKimiが大幅な技術アップグレードを受け、全く新しいk1.5マルチモーダル思考モデルを発表したことを発表しました。このモデルは、マルチモーダル推論と汎用推論能力において業界をリードするレベルに達し、Kimiの人工知能分野における新たな飛躍的な進歩を示しています。

k1.5マルチモーダル思考モデルは、Kimiがわずか3ヶ月でkシリーズ強化学習モデルを3度目の大幅なアップグレードを行ったものです。昨年11月に発表されたk0-math数学モデルと12月に発表されたk1ビジュアル思考モデルに続き、k1.5モデルはベンチマークテストで卓越した性能を示しました。short-CoTモードでは、k1.5の数学、コード、ビジュアルマルチモーダル、および汎用能力は、世界中の短思考SOTAモデルであるGPT-4oとClaude3.5Sonnetを大幅に上回り、最大550%のリード幅を達成しました。一方、long-CoTモードでは、k1.5の数学、コード、およびマルチモーダル推論能力は、長思考SOTAモデルであるOpenAI o1正式版のレベルに達しており、これは世界中でOpenAI以外の企業が初めてo1正式版のマルチモーダル推論性能を実現したことを意味します。

今回のアップグレードの背景には、Kimi技術チームの絶え間ない努力と革新があります。チームは、新しい技術パラダイムにおけるモデルトレーニングの探求の軌跡を記録した詳細なモデルトレーニング技術レポート「Kimi k1.5:大規模言語モデルを活用した強化学習のスケーリング」を初めて公開しました。

微信截图_20250121082016.png

レポートでは、k1.5モデルの重要な革新として、長文脈拡張、部分展開技術によるトレーニング効率の向上、そして文脈長の増加がモデル性能の継続的な向上に繋がることを指摘しています。さらに、改良された戦略最適化手法と簡潔なフレームワーク設計も、モデルの強力な性能を支えています。注目すべきは、k1.5モデルがテキストとビジュアルデータで共同トレーニングされており、2つのモーダルを統合的に推論する能力を備えており、特に数学能力において優れた性能を発揮している点です。ただし、一部の図形理解に依存する幾何学の問題の処理においては、まだ課題が残っています。

短鎖思考推論能力をさらに向上させるために、チームは効果的なlong2short手法を提案しました。これは、Long-CoT技術を利用してShort-CoTモデルを改良することで、AIME、MATH500、LiveCodeBenchなどのテストで顕著な成果を収め、GPT-4やClaude Sonnet3.5などの既存の短鎖思考モデルを大幅に上回りました。

k1.5マルチモーダル思考モデルのプレビュー版は、順次Kimi.comウェブサイトと最新バージョンのKimiインテリジェントアシスタントアプリで段階的に公開されます。ユーザーは使用中にモデル切り替えボタンを見つければ、この新しくアップグレードされたモデルを体験できます。k1.5モデルは深層推論を得意としており、複雑なコード問題、数学問題、仕事の課題を解決するのに役立ちます。

月之暗面科技有限公司は、2025年も既定のロードマップに沿ってkシリーズ強化学習モデルのアップグレードを加速し、より多くのモーダル、より多くの分野の能力、そしてより強力な汎用能力を提供することで、ユーザーの可能性をさらに広げていくことを表明しています。

githubレポートリンク:https://github.com/MoonshotAI/kimi-k1.5