AI药物研发公司Genesis Therapeutics近日宣布,再次获得英伟达(Nvidia)旗下风险投资部门NVentures的追加投资,具体金额未披露。此举标志着双方合作的进一步深化,旨在加速Genesis的AI平台GEMS(Genesis Exploration of Molecular Space)的开发,该平台专注于利用物理AI进行结构驱动的药物设计。
图源备注:图片由AI生成,图片授权服务商Midjourney
AI药物研发公司Genesis Therapeutics近日宣布,再次获得英伟达(Nvidia)旗下风险投资部门NVentures的追加投资,具体金额未披露。此举标志着双方合作的进一步深化,旨在加速Genesis的AI平台GEMS(Genesis Exploration of Molecular Space)的开发,该平台专注于利用物理AI进行结构驱动的药物设计。
图源备注:图片由AI生成,图片授权服务商Midjourney
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
近日,英伟达宣布将在美国亚利桑那州和德克萨斯州建立超过一百万平方英尺的制造空间,用于生产和测试 AI 芯片。这是英伟达推动部分生产回归美国的一项重要举措。据悉,英伟达的 Blackwell 芯片已经在台积电位于亚利桑那州的工厂开始生产。此外,英伟达还在德克萨斯州建立 “超级计算机” 制造厂,分别与富士康在休斯顿和纬创在达拉斯合作。在亚利桑那州,英伟达则与安靠和 SPIL 合作进行芯片的封装和测试。英伟达预计,休斯顿和达拉斯的工厂将在未来12到15个月内开始大规模生产
人工智能芯片巨头英伟达宣布,将与制造合作伙伴合作,首次在美国本土设计和建造其AI超级计算机,标志着该公司在供应链战略上迈出重要一步。英伟达已委托超过一百万平方英尺的制造空间,用于在亚利桑那州生产和测试其最新的Blackwell AI芯片,并在德克萨斯州制造和测试AI超级计算机。英伟达的生态系统合作伙伴预计将投入5亿美元用于支持这些AI基础设施的建设。虽然英伟达拒绝透露是否将拥有并运营这些工厂,以及将在当地创造多少就业岗位,但其举动正值美国政府积极推动本土制
近日,量子人工智能初创公司 SandboxAQ 宣布成功完成 E 轮融资,筹集资金达4.5亿美元。本轮融资吸引了众多行业巨头的投资,包括谷歌、英伟达以及法国巴黎银行,使得 SandboxAQ 的总融资额达到了9.5亿美元。公司表示,这笔资金将用于加速其大型量子模型的研发,并推动与各行业的合作。图源备注:图片由AI生成,图片授权服务商MidjourneySandboxAQ 成立于2022年,是从谷歌母公司 Alphabet 独立出来的公司。它利用量子计算技术来开发量子人工智能模型,这些模型可以在物理、化学和数学等领域进行
2025年4月8日,英伟达(NVIDIA)宣布推出其最新大型语言模型(LLM)——Llama3.1Nemotron Ultra253B。这一模型基于Meta的Llama-3.1-405B-Instruct开发,通过创新的神经架构搜索(NAS)技术进行了深度优化,不仅在性能上超过了近期发布的Llama4系列中的Behemoth和Maverick,还以开源形式在Hugging Face平台上发布,引发了AI社区的广泛关注。性能突破:碾压Llama4Behemoth和Maverick根据英伟达官方披露的信息以及社交媒体上的最新讨论,Llama3.1Nemotron Ultra253B在多个关键基准测试中表现出色。这一模型拥有2530亿个参数,相较于Lla
近日,全球芯片与AI技术巨头英伟达(NVIDIA)推出了一款全新开源大语言模型——Llama3.1Nemotron Ultra253B,引发了人工智能领域的强烈反响。这一模型基于Meta的Llama-3.1-405B打造,通过创新技术优化,不仅在性能上超越了Llama4Behemoth和Maverick等强劲对手,还以高效的资源利用率和卓越的多任务能力,为AI应用的广泛落地提供了新的可能。Llama3.1Nemotron Ultra253B拥有2530亿个参数,支持高达128K token的超长上下文长度,使其能够轻松处理复杂文本输入并保持逻辑连贯性。与前代模型相比,该版本在推理、
2025年4月8日,英伟达推出Llama3.1Nemotron Ultra253B,这一基于Llama-3.1-405B优化的开源模型以253亿参数超越Meta的Llama4Behemoth和Maverick,成为AI领域焦点。该模型在GPQA-Diamond、AIME2024/25及LiveCodeBench等测试中表现卓越,推理吞吐量达DeepSeek R1的四倍。通过优化训练和算法,英伟达证明高效设计可让小模型媲美巨型对手。Llama3.1Nemotron Ultra253B通过HuggingFace开放权重,并采用商业友好许可。英伟达此举不仅便利开发者,也推动了AI技术的广泛应用和生态发展。以较小参数挑战万亿级模型,该模型展现“少即是多
据 The Information*援引知情人士消息,英伟达已完成对 Lepton AI 的收购,这家由 AI 领域知名专家、阿里巴巴前副总裁贾扬清创办的初创企业交易价值高达数亿美元。据悉,Lepton AI 成立于2023年,定位为 AI 基础设施公司,专注于为初创企业提供高效的云端解决方案。其核心业务包括出租英伟达 GPU 服务器,并开发配套软件,帮助客户在云中构建、管理和优化 AI 应用。目前,Lepton AI 团队规模较小,仅约20名员工,但其技术实力和市场潜力已受到业界关注。图源备注:图片由AI生成,图片授权服务商
韩国科技巨头三星电子(Samsung Electronics)预计将于本周二发布第一季度财报,利润可能会同比下降21%,降至5.2万亿韩元(约合36.2亿美元)。这一利润下滑主要受到人工智能(AI)芯片销售不佳和合同芯片制造业务持续亏损的影响。三星电子是全球最大的内存芯片制造商,但自去年以来,其芯片利润一直处于下滑趋势。三星在高性能内存芯片的供应上落后于主要竞争对手 SK 海力士(SK Hynix),特别是在向 AI 芯片领导者英伟达(Nvidia)提供产品方面。由于未能迅速适应市场变化,三星的高端市场竞争
人工智能芯片巨头英伟达的研究人员近日发布了一项名为“FFN融合”(FFN Fusion)的创新架构优化技术。该技术旨在通过解决Transformer架构中固有的串行计算瓶颈,显著提升大型语言模型(LLMs)的推理效率,为更广泛地部署高性能AI应用铺平道路.近年来,大型语言模型在自然语言处理、科学研究和对话代理等领域展现出强大的能力。然而,随着模型规模和复杂性的不断增加,其推理过程所需的计算资源也大幅增长,导致了效率瓶颈。Transformer架构是LLM的基础,其交替的注意力机制和前馈网络
近日,谷歌宣布推出全新开源模型 TxGemma,专为提升治疗性药物的研发效率而设计。这一模型由谷歌 DeepMind 团队基于其先进的 Gemma 模型家族微调开发,融合了强大的语言理解、科学预测以及多轮对话功能,旨在为药物研发领域带来革命性的突破。TxGemma 的发布被视为人工智能技术在生物医药领域的重要进展,有望大幅缩短药物从实验室到临床的周期,同时降低高昂的研发成本和失败率。全流程支持药物研发TxGemma 的核心优势在于其能够模拟药物研发的完整流程,从早期药物筛选到后期临床