最近、Pipeshift社というスタートアップ企業が、企業がオープンソースの生成AIモデルをより効率的にトレーニング、展開、拡張できるように設計された、全く新しいエンドツーエンドプラットフォームを発表しました。このプラットフォームは、あらゆるクラウド環境またはローカルGPU上で動作し、推論速度の大幅な向上とコスト削減を実現します。
AI技術の急速な発展に伴い、多くの企業は複数のモデル間を効率的に切り替える方法に頭を悩ませています。従来、チームは計算資源の調達、モデルのトレーニング、微調整、本番環境への展開など、複数の段階を含む複雑なMLOpsシステムを構築する必要がありました。これは、時間とエンジニアリングリソースの大量消費につながるだけでなく、インフラストラクチャの管理コストの増加も招く可能性があります。
Pipeshiftの共同創設者兼CEOであるアルコ・チャトパディア(Arko Chattopadhyay)氏は、柔軟でモジュール化された推論エンジンを開発するには、長年の経験が必要となることが多いと指摘し、Pipeshiftのソリューションは、そのモジュール化された推論エンジンによってこのプロセスを簡素化することを目指していると述べています。このプラットフォームは、MAGIC(GPU推論クラスタのモジュール化アーキテクチャ)と呼ばれるフレームワークを採用しており、チームは具体的なワークロードのニーズに合わせて異なる推論コンポーネントを柔軟に組み合わせることができ、煩雑なエンジニアリング作業なしに推論パフォーマンスを最適化できます。
例えば、あるフォーチュン500企業の小売企業は、Pipeshiftプラットフォームを使用することで、当初4つの独立したGPUインスタンスで実行していた4つのモデルを、単一のGPUインスタンスに統合しました。これにより、推論速度を5倍に向上させ、インフラストラクチャコストを60%削減することに成功しました。この成果により、企業は急速に変化する市場において競争力を維持できるようになりました。
Pipeshiftは現在、30社と年間ライセンス契約を締結しており、今後、チームがデータセットの構築と拡張を支援するツールの提供も計画しています。これにより、実験とデータ準備のプロセスがさらに加速し、顧客の作業効率が向上します。
公式ウェブサイト:https://pipeshift.com/
要点:
🌟 Pipeshiftが発表したモジュール化された推論エンジンは、AI推論におけるGPU使用率を大幅に削減し、コストを最大60%削減できます。
🚀 MAGICフレームワークにより、企業は推論コンポーネントを迅速に組み合わせ、推論速度を向上させ、エンジニアリングの負担を軽減できます。
🤝 Pipeshiftは既に多くの企業と提携しており、今後、企業がAIワークロードをより効率的に管理できるよう、さらに多くのツールを提供する予定です。