AI药物研发公司Genesis Therapeutics近日宣布,再次获得英伟达(Nvidia)旗下风险投资部门NVentures的追加投资,具体金额未披露。此举标志着双方合作的进一步深化,旨在加速Genesis的AI平台GEMS(Genesis Exploration of Molecular Space)的开发,该平台专注于利用物理AI进行结构驱动的药物设计。源于斯坦福,深耕分子AIGenesis Therapeutics由Vijay Pande博士在斯坦福大学的实验室衍生而来。联合创始人Evan Feinberg博士在研究生期间与Pande共同发明并撰写了多篇关于深度学习技术的关键论文,其中最引人注目的是Potential
在当前大型语言模型(LLM)开发的竞争中,各大人工智能公司面临着越来越多的挑战,因此,越来越多的目光开始转向 “Transformer” 以外的替代架构。Transformer 架构自2017年由谷歌研究人员提出以来,已成为当今生成式人工智能的基础。为了应对这一挑战,由麻省理工学院孵化的初创公司 Liquid AI 推出了一种名为 STAR(Synthesis of Tailored Architectures)的创新框架。STAR 框架利用进化算法和数值编码系统,旨在自动化生成和优化人工智能模型架构。Liquid AI 的研究团队指出,STAR 的设计方法不同于传统
彩云科技日前在北京举办"From Paper to App"主题沟通会,正式发布基于DCFormer架构的通用大模型"云锦天章",并宣布旗下AI RPG平台彩云小梦升级至基于DCFormer的V3. 5 版本。这标志着人工智能领域在模型架构效率方面取得重大突破。在AI领域,Transformer架构一直是ChatGPT、Gemini等主流大模型的核心技术支撑。今年,彩云科技在国际顶级会议ICML上发表的论文《Improving Transformers with Dynamically Composable Multi-Head Attention》首次提出DCFormer架构。测试显示,基于该架构开发的DCPythia-6.9B模型在性能上实现了对传统
生成高质量、时间连续的视频需要大量的计算资源,尤其是对于较长的时间跨度而言。最新的扩散Transformer 模型(DiTs)虽然在视频生成方面取得了显著进展,但由于其依赖于更大的模型和更复杂的注意力机制,导致推理速度较慢,反而加剧了这一挑战。为了解决这个问题,Meta AI 的研究人员提出了一种名为 AdaCache 的免训练方法来加速视频 DiTs。AdaCache 的核心思想是基于“并非所有视频都相同”这一事实,这意味着某些视频比其他视频需要更少的去噪步骤即可达到合理的质量。 基于此,该方