人工智能计算初创公司Cerebras Systems Inc.正式推出其号称"世界上最快的人工智能推理服务",这一举措无疑是对行业巨头Nvidia Corp.的直接挑战。Cerebras首席执行官安德鲁·费尔德曼表示,新服务旨在以更快的速度和更低的成本完成AI推理任务,回应了市场对高效推理解决方案日益增长的需求。

芯片


Cerebras的"高速推理"服务建立在其强大的WSE-3处理器之上。这款处理器拥有超过900,000个计算核心和44GB板载内存,其核心数量是单个Nvidia H100图形处理单元的52倍。Cerebras声称,其推理服务速度可达每秒1,000个令牌,比使用Nvidia最强大GPU的同类云服务快20倍。更引人注目的是,该服务的起价仅为每百万个代币10美分,据称比现有AI推理工作负载的性价比高100倍。

Cerebras推理服务提供三个访问层级,包括免费服务、开发者层和企业级。开发者层通过API端点访问,为Llama3.18B模型提供每百万代币10美分的价格,而Llama3.170B模型则为60美分。企业级则提供更多定制选项和专门支持,适合持续性工作负载。

多家知名机构已成为Cerebras的早期客户,包括葛兰素史克公司、Perplexity AI Inc.和Meter Inc.等。DeepLearning AI Inc.的创始人Andrew Ng博士对Cerebras的快速推理能力给予高度评价,认为其对于需要反复提示大语言模型的代理AI工作流程特别有帮助。

除了推理服务,Cerebras还宣布了多项战略合作伙伴关系,旨在为客户提供全方位的AI开发工具。合作伙伴包括LangChain、LlamaIndex、Docker Inc.、Weights & Biases Inc.和AgentOps Inc.等。此外,Cerebras的推理API与OpenAI的聊天完成API完全兼容,这意味着现有应用程序可以轻松迁移到其平台。