2024年のAWS re:Inventカンファレンスで、Amazon Web Services(AWS)は、Trainium2チップベースのAmazon Elastic Compute Cloud(EC2)インスタンスを発表し、正式にユーザーに提供開始しました。この新しいインスタンスは、旧世代のGPUベースのEC2インスタンスと比較して、価格性能比が30~40%向上しています。AWS最高経営責任者(CEO)のAdam Selipsky氏は、「Trainium2搭載のAmazon EC2 Trn2インスタンスの正式リリースを発表できることを嬉しく思います」と述べています。
Trn2インスタンスに加えて、AWSはTrn2UltraServersを発表し、次世代Trainium3 AIチップも披露しました。Trn2インスタンスは16個のTrainium2チップを搭載し、最大20.8ペタフロップスの計算性能を提供し、数十億パラメーターを持つ大規模言語モデル(LLM)のトレーニングとデプロイ用に設計されています。
Trn2UltraServersは、4台のTrn2サーバーを1つのシステムに統合し、最大83.2ペタフロップスの計算能力を提供することで、高い拡張性を実現します。これらのUltraServersは、64個の相互接続されたTrainium2チップを搭載し、トレーニングと推論における顧客の計算能力のニーズを満たします。AWSのコンピューティングおよびネットワーク担当バイスプレジデントであるDavid Brown氏は、「Trainium2インスタンスとTrn2UltraServersの導入により、お客様は最も複雑なAIモデルに必要な計算能力を手に入れることができます」と述べています。
AWSはAnthropic社と協力し、数十万個のTrainium2チップを使用した大規模AI計算クラスタであるProject Rainierを立ち上げました。このインフラストラクチャは、Anthropicの開発、特に主力製品であるClaudeのTrainium2ハードウェア上での最適化を支援します。
さらに、DatabricksとHugging FaceもAWSと協力し、Trainiumの能力を活用して、AI製品の性能とコスト効率を向上させています。Databricksはこれらのハードウェアを使用してMosaic AIプラットフォームを強化する計画であり、Hugging FaceはTrainium2をAI開発およびデプロイツールに統合します。
Trainium2のその他の顧客には、Adobe、Poolside、Qualcommなどがあります。Selipsky氏は、AdobeがFirefly推論モデルのTrainium2を使用した初期テストで非常に満足のいく結果を得ており、大幅なコスト削減が見込まれると述べています。「Poolsideは他の選択肢と比較して40%のコスト削減を期待しています」と彼は付け加えています。「Qualcommは、クラウドでトレーニングし、エッジでデプロイできるAIシステムの開発にTrainium2を活用しています。」
さらに、AWSは3ナノメートルプロセスで製造されたTrainium3チップを発表しました。Trainium3ベースのUltraServersは2025年末に発売される予定で、Trn2UltraServersと比較して4倍の性能向上を目指しています。
Trainiumハードウェアの使用を最適化するために、AWSはNeuron SDKも発表しました。これは、開発者がモデルを最適化してTrainiumチップで最高の性能を実現するためのソフトウェアツールキットです。このSDKはJAXやPyTorchなどのフレームワークをサポートしており、顧客は最小限のコード変更でソフトウェアを既存のワークフローに統合できます。
現在、Trn2インスタンスは米国東部(オハイオ州)リージョンで提供されており、今後他のリージョンにも展開される予定です。UltraServersは現在プレビュー段階です。
要約:
🌟 AWSがTrainium2インスタンスを発表。旧世代のGPUインスタンスと比較して性能が30~40%向上。
💡 Trn2UltraServersは複数のTrn2サーバーを組み合わせ、大規模AIモデルのニーズに対応する強力な計算能力を提供。
🚀 AWSは複数の企業と協力し、AI技術の応用を推進。顧客のコストと性能の両面で優位性を提供。