近日,一项新的研究论文揭示了不同 AI 语言模型在合作能力方面的显著差异。研究团队采用了一种经典的 “捐赠者游戏”,测试了 AI 代理在多代合作中如何共享资源。结果显示,Anthropic 的 Claude3.5Sonnet 表现出色,成功建立了稳定的合作模式,获得了更高的资源总量。而谷歌的 Gemini1.5Flash 和 OpenAI 的 GPT-4o 则表现不佳,尤其是 GPT-4o 在测试中逐渐变得不合作,Gemini 代理的合作程度也十分有限。研究团队进一步引入了惩罚机制,以观察不同 AI 模型的表现变化。结果发现,Claude3.5的表现有了显
近日,苹果公司在机器学习领域的最新研究显示,他们通过与 NVIDIA 的合作,成功将大型语言模型(LLM)的生成速度提高了近三倍。这一进展的关键在于苹果开源的技术 “Recurrent Drafter”(ReDrafter),它采用了一种推测解码方法,能够显著提升模型训练的效率。在过去,创建大型语言模型的过程通常非常耗时和耗资源,企业常常需要购买大量的硬件设备,进而增加了运营成本。2024年早些时候,苹果发布了 ReDrafter,这一技术结合了递归神经网络和动态树关注的方法,能够快速生成和验证标记,
在近日的 AWS re:Invent 大会上,Stable Diffusion3.5 Large(SD3.5Large)宣布正式在亚马逊 Bedrock 平台上可用。作为 AWS 的完全托管平台,Bedrock 旨在为开发者提供构建和扩展生成式人工智能应用的基础模型。通过将 SD3.5Large 引入亚马逊 Bedrock,Stability AI 希望满足开发者在可信的 AWS 环境中进行工作和部署的需求,从而使初创企业和大型企业能够安全、便捷地使用这一先进模型,而无需担心额外的基础设施问题。Stable Diffusion3.5 Large在文本到图像生成方面表现卓越,具有多种关键能力。首先,它支持多样
近日,微软 AI 研究团队发布了开源工具 PromptWizard,这是一种基于反馈驱动的 AI 框架,旨在高效优化大型语言模型(LLM)的提示设计。提示的质量对于模型输出的优劣至关重要,然而,创建高质量的提示往往需要耗费大量的时间和人力资源,尤其是在复杂或特定领域的任务中。传统的提示优化方法多依赖人工经验,这种方式不仅耗时,而且难以扩展。现有的优化技术分为连续和离散两种。连续技术如软提示需要大量的计算资源,而离散方法如 PromptBreeder 和 EvoPrompt 则通过生成多种提示变体