谷歌近日在其 Gemini 系列中推出了全新的 Gemini2.5Flash,这一版本正在进行预览,旨在为开发者提供更强大的推理能力。借助 “思考” 过程,开发者可以根据需求灵活控制成本和延迟,打造更具性价比的解决方案。
与前一版本2.0Flash 相比,Gemini2.5Flash 的升级主要体现在推理能力上。这是谷歌首次推出的全混合推理模型,允许开发者选择是否启用思考功能。通过设置思考预算,开发者能够在质量、成本和延迟之间找到理想的平衡点。即便在思考功能关闭的情况下,2.5Flash 依然保持着2.0Flash 的快速响应速度,并进一步提升了整体性能。
这一新的思考模型能在生成输出之前,进行一系列的推理过程。这一过程帮助模型更好地理解输入的提示,分解复杂任务,进而规划出更为精准的回答。例如,在处理一些需要多步骤推理的复杂任务时(如解决数学问题或分析研究问题),思考过程使得模型能够得出更加准确和全面的答案。在 LMArena 的 “困难提示” 测试中,Gemini2.5Flash 的表现优异,仅次于2.5Pro。
Gemini2.5Flash 还带来了对思考过程的细粒度控制,开发者可以为模型设定一个最大思考令牌数,以灵活调整推理质量。设置较高的预算能让模型进行更深入的思考,从而提升回答的质量,而如果预算设置为0,模型则能在保持最低成本的同时,超越2.0Flash 的表现。
在实际应用中,不同的任务复杂度对应不同的思考需求。简单的翻译或计算任务可能只需少量思考,而较为复杂的数学题或编程问题则需要更多的推理时间。通过设置思考预算,开发者可以选择适合自己需求的推理深度,从而更有效地解决各种问题。
目前,开发者可以通过 Gemini API、Google AI Studio 和 Vertex AI 使用 Gemini2.5Flash。谷歌鼓励大家试验思考预算参数,探索如何通过可控的推理能力来解决更复杂的难题。