zh
红薯智语
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
首页
AI资讯
AI日报
变现指南
AI教程
AI工具导航
AI产品库
zh
红薯智语
搜索全球AI产品动态
搜索全球AI信息,发现AI新机遇
新闻资讯
产品应用
变现案例
AI教程
类型 :
新闻资讯
产品应用
变现案例
AI教程
2024-11-04 14:06:57
.
AIbase
.
13.0k
Diffusion 模型也能“举一反三”?阿里IC-LoRA给图像生成模型增加情节记忆力能力
阿里巴巴通义实验室最新研究表明,现有的文生图 Diffusion Transformer 模型其实已经具备生成多张具有特定关系图像的能力,只需稍加“点拨”就能“融会贯通”,生成高质量的多图集。传统的 Diffusion 模型更像是一个“死记硬背”的学生,需要用海量数据训练,才能生成高质量的图像。而有了 IC-LoRA 加持,它就变成了“触类旁通”的学霸,只需要少量样本就能学会新技能。这背后的原理说起来也不复杂,研究人员发现,现有的文生图 Diffusion 模型其实已经具备一定的“上下文学习”能力,只
2024-10-21 10:42:51
.
AIbase
.
12.6k
高质量数据才是王道!EPFL 研究:训练数据对大模型性能至关重要!
瑞士洛桑联邦理工学院 (EPFL) 的一项最新研究比较了两种主流的大型语言模型 (LLM) 适应性训练方法:上下文学习 (ICL) 和指令微调 (IFT)。研究人员使用 MT-Bench 基准测试来评估模型遵循指令的能力,发现在特定情况下,两种方法的表现各有优劣。研究发现,当可用的训练样本数量较少时(例如不超过50个),ICL 和 IFT 的效果非常接近。这表明在数据有限的情况下,ICL 或许可以作为 IFT 的替代方案。然而,随着任务复杂度的增加,例如在多轮对话场景中,IFT 的优势就变得明显。研究人员认为,
2024-02-20 17:09:39
.
AIbase
.
5.4k
研究表明:大语言模型从人类反馈中学得更快更智能
["研究发现大型语言模型在在线上下文学习中表现出强大能力,能够从人类反馈中学习编写机器人代码。","通过Language Model Predictive Control(LMPC)框架,成功提高机器人代码编写LLMs的适应人类输入效率。","实验证明LMPC提高了未见任务成功率,为机器人适应性学习提供了强大支持。","研究团队通过LMPC框架的应用,成功开辟了新的道路,提高了机器人学习的快速适应性。"]