今週、AI業界は活況を呈しており、GoogleとMetaが新たなAIモデルを発表し、大きな注目を集めています。まず、Googleは火曜日にGeminiシリーズの最新アップデートを発表し、2つの新たな実運用モデルであるGemini-1.5-Pro-002とGemini-1.5-Flash-002をリリースしました。
今回のアップデートでは、モデル全体の品質が大幅に向上し、特に数学、長文処理、ビジョンタスクにおいて顕著な進歩が見られました。Googleによると、MMLU-Proベンチマークテストでは性能が7%向上し、数学関連タスクでは20%も向上したとのことです。AIに関心のある方なら、ベンチマークテストの限界をご存知でしょうが、今回のデータは非常に素晴らしいものです。
モデルの性能向上に加え、GoogleはGemini 1.5 Proの使用コストを大幅に削減し、入力と出力トークンの料金をそれぞれ64%と52%引き下げました。この措置により、開発者はGeminiをより費用対効果の高いものとして利用できるようになりました。
さらに、アップデート後、Gemini 1.5 FlashとProの処理速度も向上し、前者は毎分2000件、後者は毎分1000件のリクエストに対応できるようになりました。このような改善は、開発者がアプリケーションをより簡単に構築するのに役立つことは間違いありません。
一方、水曜日にMetaもLlama 3.2を発表しました。これは、同社のオープンソースの大規模言語モデルに対する重要なアップデートです。今回のアップデートには、ビジュアル機能を備えた大規模言語モデルが含まれており、パラメーター数は11億から90億まで様々です。また、モバイルデバイス向けに設計された、1億と3億パラメーターの軽量テキストモデルも発表されました。
Metaによると、これらのビジュアルモデルは、画像認識と視覚的理解において、市場をリードするクローズドソースのモデルと匹敵する性能を備えているとのことです。さらに、一部のAI研究者が新モデルをテストした結果、これらの小型モデルは多くのテキストタスクで優れた性能を示したことが明らかになりました。
そして木曜日、Google DeepMindは一大プロジェクトであるAlphaChipを発表しました。このプロジェクトは2020年の研究に基づいており、強化学習を用いてチップレイアウトを設計することを目的としています。Googleによると、AlphaChipは最新の3世代のテンソル処理ユニット(TPU)において「超人的なチップレイアウト」を実現しており、高品質なチップレイアウトの生成速度を、数週間から数ヶ月かかっていた人間による作業から数時間に短縮することができました。
さらに注目すべきは、GoogleがAlphaChipの事前学習モデルをGitHubで公開し、他のチップ設計企業もこの技術を利用できるようにしたことでしょう。MediaTekなどの企業は既にこの技術を採用し始めています。
要点:
📈 ** Googleが新バージョンのGeminiモデルを発表、全体的な性能向上と大幅な価格引き下げを実現。**
🤖 ** MetaがLlama 3.2を発表、ビジュアル機能を備えた小型言語モデルで優れた性能を発揮。**
💡 ** GoogleのAlphaChipがチップ設計を加速化、設計効率を大幅に向上させ、技術を共有。**