4月3日、百度は正式に飛槳フレームワーク3.0版を発表しました。この最新バージョンは設計理念において全面的な進化を遂げ、特に大規模モデルの開発と推論ニーズに対応するため、5つの主要な機能を提供し、深層学習フレームワーク分野のリーダーを目指しています。大規模モデルが様々な業界で広く利用されるにつれて、深層学習フレームワークの役割はますます重要になり、飛槳フレームワーク3.0はそのニーズに応えるために開発されました。
まず、飛槳フレームワークは「動静統一自動並列」技術を導入し、大規模モデルの開発とトレーニングのコストを大幅に削減することで、アルゴリズムの革新をコアバリューの創造に集中させることができます。さらに、「訓練推論一体」設計理念により、訓練と推論の壁を効果的に打破し、深層最適化を通じて、フレームワークは複数のオープンソース大規模モデルの高性能推論をサポートし、DeepSeek V3/R1プラットフォーム上では顕著な性能向上を実現しています。
科学知能分野において、飛槳フレームワーク3.0は微分方程式の解法速度向上など、科学技術の最先端を探求することに注力しています。高階自動微分とニューラルネットワークコンパイラ技術のおかげで、フレームワークの解法速度は、PyTorchのコンパイル済み最適化バージョンと比較して平均115%高速です。さらに、飛槳はDeepXDEやModulusなどの主要なオープンソース科学計算ツールとの幅広い互換性を確保し、DeepXDEのデフォルト推奨バックエンドとなり、気象予測、生命科学、航空宇宙などでの応用価値をさらに広げています。
演算性能において、飛槳3.0は独自開発のニューラルネットワークコンパイラCINNにより、演算速度を大幅に向上させました。A100プラットフォームで行われた性能テストでは、コンパイル済み最適化オペレータの動作速度が4倍に向上し、60以上のモデルを使用した実験では、60%以上のモデルで顕著な性能向上(平均27.4%向上)が見られました。
さらに、飛槳フレームワーク3.0はマルチチップ統一対応ソリューションを発表し、「ワンソース開発、全スタック展開」のエコシステムを構築しました。現在、60以上のチップシリーズに対応しています。開発者はコードを1つ書くだけで、異なるチップ上でスムーズに実行でき、ビジネスのクロスチップ移行を実現できます。2024年10月現在、飛槳文心エコシステムは1808万人の開発者、43万社の企業にサービスを提供し、101万個のモデルを作成しており、その強力な市場影響力を示しています。
飛槳フレームワーク3.0は現在、開発者に公開されており、2.0版の開発インターフェースとの互換性も確保されており、開発者に多くの選択肢と利便性を提供します。