苹果公司最近公布了两篇论文,展示了该公司在人工智能研究方面取得的重大进展。其中一项新技术有望让复杂的 AI 系统在 iPhone、iPad 等小内存设备上流畅运行。苹果的技术人员通过一系列方法最大限度地减少了从闪存到内存的数据传输,将推理延迟提高了 4-5 倍,在 GPU 上加速达到 20-25 倍。这一突破对于在资源有限的环境中部署先进的语言模型尤为重要,极大提高了适用性和可及性。对于苹果用户来说,这些优化可能很快允许复杂的人工智能助手和聊天机器人在 iPhone、iPad 和其他移动设备上流畅运行。