Topazlabs发布Topaz Video AI 4,视频分辨率提升至16K

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
Mozilla 最近通过其 Mozilla Builders 计划推出了一款名为 LocalScore 的工具,旨在为本地大型语言模型(LLM)提供便捷的基准测试。该工具兼容 Windows 和 Linux 系统,具有极大的潜力,成为了易于分发的 LLM 框架的重要组成部分。尽管 LocalScore 仍处于早期开发阶段,但其表现已相当不错。LocalScore 是基于上周发布的 Llamafile0.9.2版本开发的,这一更新使得 LocalScore 成为一款实用的基准测试工具,能够在 CPU 和 GPU 上进行大型语言模型的性能评估。通过这一工具,用户可以轻松测量 LLM 系统的性能,获取快
在人工智能技术日益普及的今天,DeepSeek与清华大学的合作引起了业界的广泛关注。作为一家中国初创公司,深思科技以其在低成本推理模型方面的突破而闻名,而这一次,他们希望通过与清华大学的学术合作,进一步降低 AI 模型的训练成本,从而提升运营效率。DeepSeek近期推出了一种新的低成本推理模型,引发了市场的热烈反响。为了进一步优化这一模型,深思科技的研究团队与清华大学的学者们共同探讨了一个全新的强化学习方法。这种方法旨在使 AI 模型在进行学习时更加高效,能够
在量子计算领域,中国再次取得了显著进展。据《科创板日报》报道,来自安徽省量子计算工程研究中心与合肥综合性国家科学中心人工智能研究院等机构联合研发的量子计算机 “本源悟空”,近日成功地运行了全球首个十亿参数的人工智能(AI)模型微调任务。这一里程碑式的成就,标志着量子计算首次在实际应用中实现大规模的 AI 模型处理。本源悟空是中国自主研发的第三代超导量子计算机,配备有72位自制超导量子芯片 “悟空芯”。其设计理念受到中国传统神话人物孙悟空的启发,
近日,科技巨头谷歌悄然发布了其最新的旗舰人工智能模型——Gemini2.5Pro,并迅速在开发者社区引发了巨大的轰动。谷歌称其为“有史以来最智能的模型”,而现在,这款强大的模型已经通过 Gemini API 在 Google AI Studio 上开启公开预览,并将很快在 Vertex AI 上线。这一举措不仅让更多开发者能够体验到顶尖AI的能力,其极具竞争力的定价策略更是引发了业界的广泛关注。虽然谷歌并未在公告中详细列出 Gemini2.5Pro 的所有功能特点,但其被誉为“有史以来最智能的模型”本身就暗示了其在推理能
Meta周六发布了其新旗舰AI模型Maverick,该模型在LM Arena评测中排名第二。LM Arena是一项依靠人类评分者比较不同模型输出并选择偏好的测试平台。然而,多位AI研究人员很快发现,Meta部署到LM Arena的Maverick版本似乎与开发人员广泛使用的版本存在显著差异。Meta在公告中承认,LM Arena上的Maverick是一个"实验性聊天版本"。与此同时,Llama官方网站上的图表显示,Meta的LM Arena测试使用的是"针对对话性进行了优化的Llama4Maverick"。这种差异引发了研究社区的质疑。AI研究人员在社交平台X上指出,公开可
谷歌近期正式公布了 Gemini2.5Pro 的 API 定价情况。在输入 tokens 不超过20万时,每百万输入 tokens 的基础定价为1.25美元,约合人民币9.1元;而每百万输出 tokens 的价格则为10美元,约合人民币72.9元。要是输入的文本较长,超过了20万 tokens,输入价格就会调整为每百万2.50美元,也就是约18.2元人民币,输出 tokens 价格变为15美元,约合109元人民币。与谷歌现有的其他 AI 模型相比,Gemini2.5Pro 的定价明显更高。和部分前沿 AI 服务相比,它的价格也处于高位,比如 OpenAI 的 o3-mini 输入每百万 tokens 是1.10美
近年来,随着人工智能技术的飞速发展,网络爬虫对维基媒体项目造成的带宽压力日益严重。维基媒体基金会的代表指出,自2024年1月以来,用于服务多媒体文件的带宽消耗增加了50%。这一增长主要来源于自动化程序,这些程序不断从维基媒体的开放许可图像库中抓取内容,以供 AI 模型进行训练。维基媒体基金会的工作人员 Birgit Mueller、Chris Danis 和 Giuseppe Lavagetto 在公开信中表示,这一带宽增加并非源于人类用户,而是由于机器人程序的强大需求。他们强调:“我们的基础设施旨在承受人类
负责维护和管理 Arc Prize Foundation上周修正了对OpenAI即将推出的o3"推理"AI模型的成本估算,调整幅度惊人——从最初估计的每项ARC-AGI任务3,000美元飙升至30,000美元。这项价格修正揭示了当今最复杂AI模型的运行成本可能比预期高出十倍。尽管OpenAI尚未公布o3的官方定价策略,甚至尚未正式发布该模型,但Arc Prize Foundation认为以OpenAI当前最昂贵的o1-pro模型为参考更为合理。Arc Prize Foundation联合创始人Mike Knoop表示:"我们认为o1-pro与真正的o3成本更接近……因为测试时使用的计算量很大。"鉴于相关
人工智能开源社区的领军平台 Hugging Face 推出了一项备受期待的新功能:用户可以通过平台设置,快速查看自己的电脑硬件能够运行哪些机器学习模型。据了解,用户只需在 Hugging Face 的个人设置页面(路径为“右上角头像 > Settings > Local Apps and Hardware”)添加自己的硬件信息,例如 GPU 型号、内存容量等,系统便会根据这些参数,智能分析并显示哪些模型(包括不同量化版本)能够在该设备上顺利运行。这一功能的亮点在于其直观性和便捷性,尤其对于开发者、研究人员以及 AI 爱好者来说
近日,一项新研究引发关注,指控 OpenAI 在训练其最新的 AI 模型时,使用了 OReilly 媒体的付费书籍,但并未获得许可。这项研究由一家名为 AI Disclosures Project 的非营利组织发布,该组织是由媒体大亨 Tim OReilly 和经济学家 Ilan Strauss 于2024年共同创办的。AI 模型可以被视为复杂的预测引擎,它们通过大量的数据(包括书籍、电影、电视节目等)学习模式,从而对简单的提示进行推测。当模型写作时,例如创作关于希腊悲剧的文章,或者绘制风格化的图像,其实是从庞大的知识库中提取信息,而