Metaは先日、Llamaシリーズの最新モデルであるLlama 3.370Bを発表しました。Metaの生成AI担当バイスプレジデントであるAhmad Al-Dahle氏がXプラットフォームでこのニュースを公表し、Llama 3.370BはMetaの以前の最大モデルであるLlama 3.1405Bと比べて性能が大幅に向上し、同時にコストが大幅に削減されたと述べています。

Al-Dahle氏によると、最新のトレーニング技術を活用することで、Llama 3.370Bは性能向上だけでなく、運用コストの削減にも成功しました。Metaが発表したベンチマークテストの結果によると、Llama 3.370BはGoogleのGemini 1.5 Pro、OpenAIのGPT-4、そしてAmazonが新しく発表したNova Proを複数の分野で上回り、特に言語理解能力を評価するMMLUテストで優れた成績を収めました。

1733539490180.png

このモデルは現在、Hugging FaceやLlama公式プラットフォームなどからダウンロード可能です。Metaはこの「オープン」モデルを通じてAI分野をリードすることを目指しています。MetaのLlamaモデルは様々な場面で活用でき、商業利用も可能です。ただし、Metaは一部の開発者に対して利用制限を設定しており、月間ユーザー数が7億を超えるプラットフォームは特別な許可申請が必要となります。それでも、Llamaモデルのダウンロード数は6.5億回を突破しており、世界中のAI開発者から広く歓迎されていることが分かります。

将来、より大規模なAIモデルのトレーニングを支えるため、Metaは計算インフラへの投資を強化しています。同社は先日、ルイジアナ州に100億ドル規模のAIデータセンターを建設すると発表しました。これはMeta史上最大のAIデータセンターとなります。ザッカーバーグCEOは決算説明会で、次世代Llama 4モデルのトレーニングには、Llama 3の10倍の計算能力が必要になると述べています。Metaは現在、10万台を超えるNvidia GPUクラスタを導入しており、xAIなどの競合他社の資源と肩を並べています。

生成AIモデルのトレーニングコストが上昇する中、Metaの資本支出も増加傾向にあり、2024年第2四半期の資本支出は前年同期比約33%増の85億ドルに達しました。この増加は主に、サーバー、データセンター、ネットワークインフラへの継続的な投資によるものです。