Metaは、人工知能の効率向上において重要な一歩を踏み出しました。同テクノロジー大手は今週水曜日、大規模言語モデル(LLM)の開発と展開の方法を変える可能性のある、斬新なマルチトークンプレディクション(多トークン予測)方法を採用した事前学習モデルを発表しました。

image.png

プロジェクト入口:https://top.aibase.com/tool/multi-token-prediction

この新技術は、Metaが今年4月に発表した研究論文で初めて提案されました。従来のLLMの訓練方法がシーケンス内の次の単語のみを予測するのに対し、Metaの方法ではモデルが複数の未来の単語を同時に予測するため、性能の向上と訓練時間の大幅な短縮が期待できます。

Metaのマルチトークンプレディクション方法は、高度な人工知能のアクセスと持続可能性を高める方法を提供する可能性があります。

この新手法の可能性は、効率向上だけにとどまりません。複数のトークンを同時に予測することで、これらのモデルは言語構造とコンテキストをより詳細に理解できるようになります。これにより、コード生成から創作執筆まで、さまざまなタスクが改善され、人工知能と人間のレベルの言語理解のギャップを埋める可能性があります。

Metaは、Hugging Face上で非商業的研究ライセンスの下でこれらのモデルを公開しており、同社のオープンサイエンスへのコミットメントを反映しています。しかし、これは競争が激化する人工知能分野における戦略的な動きでもあります。オープンにすることで、イノベーションと人材獲得を加速させることができます。

初期バージョンはコード補完タスクに焦点を当てており、これは人工知能支援プログラミングツールの市場の成長を反映しています。ソフトウェア開発と人工知能の結びつきが強まるにつれて、Metaの貢献は、人と機械の協調的なコーディングのトレンドを加速させる可能性があります。