軽量微調整手法RA-DITによる知識検索能力の向上

最近、Metaの研究者らが、言語モデルの知識検索能力を向上させるための軽量な微調整手法RA-DITを提案しました。

この手法は二段階の調整を行います。第一段階では、言語モデルが検索情報を活用する能力を高め、第二段階では、より関連性の高い情報を提供するように検索エンジンを最適化します。

実験結果によると、RA-DIT 65Bは、知識集約的なゼロショットおよび少ショットテストにおいて、既存のモデルを上回りました。また、知識の活用と文脈理解を高度に必要とするタスクのパフォーマンスも大幅に向上しました。

この研究は、特に大規模な知識源へのアクセスが必要なシナリオにおいて、RA-DITのような軽量な微調整が検索拡張言語モデルに有効であることを実証しています。