最近、昆侖万維とシンガポール南洋理工大学は共同で、Q*と呼ばれるアルゴリズムを開発することに成功しました。このアルゴリズムは、既存の大規模言語モデルの推論能力を大幅に向上させることができます。Q*は、様々なデータセットにおいて、パラメータ数が数十倍、場合によっては数百倍も大きいモデルと同等の推論能力を小型モデルに実現させ、モデル性能の大幅な向上と計算資源の消費の大幅な削減を同時に達成しました。これにより、人工知能の幅広い応用に向けた新たな可能性が開かれ、効率的な知能の新時代が幕を開けました。
研究者らは論文「Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning」において、Q*フレームワークを提案しました。これは、大規模言語モデルの推論過程を複数の状態に分解し、A*探索アルゴリズムを用いて全体計画を実現することで、オープンソースモデルの推論タスクにおける性能を向上させるものです。
具体的には、Path Cost関数とAccumulated Reward関数を定義することで、過去の状態からの収益と将来の期待収益を総合的に考慮しています。実験では、Q*は様々なモデルにおいて、様々なデータセットで精度の大幅な向上を実現し、いくつかの著名なモデルを凌駕しました。
現在、Q*の研究はまだ初期段階にあり、改善の余地があります。今後、昆侖万維は研究をさらに深め、国産オープンソースモデルの推論能力を向上させ、人工知能技術の発展にさらなる可能性をもたらすことを目指します。
論文リンク:
https://arxiv.org/abs/2406.14283