最近、アップル社は人工知能モデルの開発において、業界で広く使用されているNVIDIAのGPUではなく、Googleのテンソル処理ユニット(TPU)を選択したと発表しました。このニュースは、アップルが月曜日に発表した技術論文で明らかになり、同社のAI能力における最新の進歩について詳しく説明されています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
アップルは、自社のアップル基礎モデル(AFM)のトレーニングに、Google Cloud PlatformのTPUクラスタ(v4とv5pバージョン)を使用していると明らかにしました。研究論文では、「AFMモデルは、v4とv5pクラウドTPUクラスタ上で事前トレーニングされ、JAXベースの深層学習ライブラリであるAXLearnフレームワークを使用しました。これはパブリッククラウド向けに設計されています。」と述べています。
このアップルの決定は、アップルのエコシステム内の様々なAI駆動の新機能を推進する予定の、「アップルインテリジェンス」計画にとって特に重要です。注目すべきは、NVIDIAがAIチップ市場で主導的な地位を占めており、そのGPUは世界をリードするAI研究で第一の選択肢となっていることです。業界では、NVIDIAのAIチップ市場におけるシェアは95%に達すると広く考えられています。
アップルがGoogleのTPUをNVIDIAのGPUではなく選択したことは、大手テクノロジー企業が他の選択肢を探求していることを意味します。これはまた、当初は社内使用のために開発されたGoogleのカスタムTPUの能力が向上し、現在では外部顧客にも提供されていることを示しています。同時に、Metaも最近、Groq社と協力して、Llama3.1の運用と推論に同社のLPUを使用しています。
研究論文では、アップルはサーバーベースのAIモデルに8192個のTPUv4チップを使用し、iPhoneなどのアップルデバイス向けに設計されたデバイス内AIモデルには2048個のTPUv5pチップを使用したと述べています。これらの大規模な展開は、アップルのAI分野における野心と、高度な言語モデルのトレーニングに必要な計算能力を示しています。
業界アナリストは、アップルの選択はコスト効率、パフォーマンス上の優位性、または戦略的パートナーシップに関連している可能性があると推測していますが、アップルはGoogleのTPUを選択した理由を具体的には説明していません。「アップルインテリジェンス」フレームワークの一部機能をテストユーザーに提供し始めたことから、同社がAI分野でより積極的に競争しようとしていることは明らかです。
要点:
1. 📊 アップルはNVIDIAのGPUではなく、GoogleのTPUを選択してAIモデルをトレーニングしました。これは、AIハードウェアの選択肢の多様化を示しています。
2. 🌐 アップルの「アップルインテリジェンス」計画は、TPUを利用してAI機能を開発し、同社のAI分野における野心を示しています。
3. 🤖 アップルは、AIモデルのトレーニングニーズを満たすために大量のTPUチップを導入し、技術への投資と決意を示しています。