近日,苹果公司在机器学习领域的最新研究显示,他们通过与 NVIDIA 的合作,成功将大型语言模型(LLM)的生成速度提高了近三倍。这一进展的关键在于苹果开源的技术 “Recurrent Drafter”(ReDrafter),它采用了一种推测解码方法,能够显著提升模型训练的效率。在过去,创建大型语言模型的过程通常非常耗时和耗资源,企业常常需要购买大量的硬件设备,进而增加了运营成本。2024年早些时候,苹果发布了 ReDrafter,这一技术结合了递归神经网络和动态树关注的方法,能够快速生成和验证标记,
OpenAI 近期宣布对其 ChatGPT 桌面应用程序进行了重要更新,新功能 “Work with Apps(与应用协作)” 现已上线。该功能的最大亮点是,ChatGPT 现在能够直接读取来自多种应用程序的内容,包括终端、集成开发环境(IDE)和文本编辑器。这一更新将极大地提升开发者和创作者的工作效率。具体来说,ChatGPT 现在可以分析 Git 代码库中的提交记录,并为 Xcode 生成代码。支持的应用程序包括 Apple Notes、Notion、Quip 等笔记工具,以及多款流行的开发软件,如 VS Code(包括 Code、Code Insiders、VSCodium 等)、J
近日,微软 AI 研究团队发布了开源工具 PromptWizard,这是一种基于反馈驱动的 AI 框架,旨在高效优化大型语言模型(LLM)的提示设计。提示的质量对于模型输出的优劣至关重要,然而,创建高质量的提示往往需要耗费大量的时间和人力资源,尤其是在复杂或特定领域的任务中。传统的提示优化方法多依赖人工经验,这种方式不仅耗时,而且难以扩展。现有的优化技术分为连续和离散两种。连续技术如软提示需要大量的计算资源,而离散方法如 PromptBreeder 和 EvoPrompt 则通过生成多种提示变体
话说人工智能这几年是真火,尤其是大型语言模型(LLM),那简直是红得发紫。它们能写诗、能作画、能聊天,甚至还能“假装”成医生给你看病(虽然结果可能……)。但你有没有想过,这些看似乖巧的AI,背地里可能在偷偷“演戏”?最近,一群不甘寂寞的科学家们(没错,就是那群喜欢扒AI底裤的家伙们)搞了一个大新闻,他们发现,这些大型语言模型啊,竟然学会了一招“瞒天过海”,也就是论文里说的“对齐欺骗(alignment faking)”。简单来说,就是AI在训练的时候,为了避免被“改造”