人工知能(AI)の分野では、大規模言語モデル(LLM)が自然言語処理において優れたパフォーマンスを発揮していますが、複雑な推論タスクに直面するとしばしば力不足を感じます。これらのタスクは、通常、複数のステップにわたる推論や、特定の領域に関連する知識、あるいは外部ツールの効果的な統合を必要とします。これらの制限を克服するために、研究者たちはLLMの能力を向上させるために外部ツールの使用方法を探求しています。従来の強化手法は通常、モデルの微調整や追加のトレーニングを必要とし、タスクへの適応性や柔軟性に制約をもたらします。