传统的大型语言模型(LLM)微调方法通常计算密集,且在处理多样化任务时显得静态。为了解决这些挑战,Sakana AI 推出了一种名为 Transformer² 的新型自适应框架。Transformer² 能够在推理过程中实时调整LLM的权重,使其能够适应各种未知的任务,就像章鱼一样灵活。Transformer² 的核心在于一个两阶段机制:第一阶段,一个调度系统会分析用户的查询,识别任务的属性。第二阶段,系统会动态混合多个“专家”向量。这些向量是使用强化学习训练出来的,每个向量都专注于特定类型的任务,从而
ViTPose是一个开源的动作预估模型,它特别擅长识别人体姿态,就像能看懂你在做什么动作一样。 这个模型最厉害的地方在于它的简洁和高效,它没有采用复杂的网络结构,而是直接使用了一种叫做视觉Transformer的技术。ViTPose 的核心是使用纯粹的视觉Transformer,这就像一个强大的“骨架”,可以提取图像中的关键特征。 它不像其他模型那样需要复杂的卷积神经网络(CNN)来辅助。 它的结构非常简单,就是把多个Transformer层叠在一起。ViTPose 模型可以根据需要调整大小。 就像一个可以伸缩的
在2022年全球生成式 AI 浪潮的背景下,元始智能(RWKV)于2023年12月完成数千万人民币的天使轮融资,由天际资本投资。此次融资后,公司估值翻倍,资金将用于团队扩展、新架构研发及产品商业化。RWKV 的出现,是对传统 Transformer 架构的一次有力挑战。随着大语言模型(LLM)的发展,虽然模型的参数规模日益庞大,但其在幻觉和准确率等问题上的短板始终难以解决。因此,RWKV 的创始团队决定探索一种全新的架构,以期实现更高的效率和灵活性。RWKV 的设计理念与 Transformer 截然不同。联合
一项由中国科学院、同济大学和宁波大学联合团队开发的创新点云压缩技术(TSC-PCAC)取得重大突破。这项技术不仅大幅提升了点云数据的压缩效率,还显著降低了处理时间,为AR/VR等3D应用的发展扫清了技术障碍。在当前3D视觉技术快速发展的背景下,点云作为虚拟现实和增强现实的关键数据形式,面临着巨大的传输和存储挑战。一个高质量的点云可能包含数百万个数据点,每个点都携带着位置、颜色、透明度等多维信息。这些海量数据的处理效率直接影响着3D应用的普及速度。针对这一难