マスク氏は先日、自身のAIスタートアップ企業xAIが8月に革新的な大規模言語モデル「Grok-2」をリリースすると発表し、より高度なAI機能の登場を予感させました。Grok-2の詳細はまだベールに包まれていますが、マスク氏はすでに次の作品であるGrok-3のプロモーションに余念がありません。

AI開発について語る中で、マスク氏はデータセットの重要性と、大規模言語モデル(LLM)のデータクレンジングの困難さを特に強調し、OpenAIモデルの出力トレーニングにおける課題についても率直に言及しました。彼は、xAIのGrok-3プロジェクトが驚異的な10万個のNVIDIA H100高性能AIチップを使用してトレーニングされたことを誇らしげに明らかにしました。この数字は、xAIのAI開発分野における圧倒的な能力を示すだけでなく、Grok-3が前例のない「非凡な」体験をもたらすことを示唆しています。

微信截图_20240702150255.png

大規模言語モデル(LLM)のデータ処理用に設計された最先端チップであるNVIDIA H100は、1個あたり3~4万ドル(約219万~292万円)という高価格です。xAIが投入した10万個のチップの価値は、30億~40億ドル(現在の為替レートで約2186億8000万~2915億7000万円)にも上ると推定されます。

注目すべきは、マスク氏が以前、テスラが今年、NVIDIAチップの購入予算をこの範囲に設定していると明らかにしていることです。これにより、xAIがテスラの資源を利用しているのではないかという憶測が生まれています。

Grok-2のリリース間近とGrok-3の着々と進む準備により、マスク氏率いるxAIは、AI分野における新たな変革をリードしています。