最近清华大学的研究团队针对提升LLM智能体能力的问题,提出了AgentTuning方法。该方法包含构建AgentInstruct智能体数据集和采用混合指令微调策略。作者利用AgentTuning对Llama 2系列进行微调,得到AgentLM。结果表明,AgentLM相比Llama 2在多种智能体任务上取得明显提升,70B版本在许多任务上甚至超过GPT-4,提供了开源的强大替代方案。该研究为LLM在智能体任务领域发展提供了新的思路,也为未来实现更智能化的智能体系统奠定了基础。