Groq在最新一轮融资中成功募集6.4亿美元,由全球最大资产管理公司BlackRock Inc.的基金领投,同时获得了科技巨头思科和韩国电子巨擘三星投资部门的鼎力支持。

这轮融资让Groq的估值一举飙升至28亿美元,彰显了投资者对其技术和发展前景的高度认可。Groq的崛起,无疑给长期独霸AI芯片市场的英伟达带来了一记强有力的挑战。

更令业界瞩目的是,Groq近日宣布,享誉全球的人工智能先驱、图灵奖得主Yann LeCun即将加入公司担任技术顾问。LeCun的加盟无疑为Groq在竞争激烈的芯片领域增添了一大助力,也彰显了公司在技术创新上的雄心。

然而,挑战英伟达的道路并非坦途。有分析师指出,尽管Groq展现出巨大潜力,但要真正撼动英伟达的市场地位,仍需在产品成熟度、生态系统建设、以及大规模商业化等方面经受考验。

此前,Groq推出了一项令业界瞩目的新功能:用户可直接在其网站上使用大型语言模型(LLMs),进行近乎即时的查询和各种复杂任务。

QQ截图20240806142246.jpg

据悉,Groq于上周悄无声息地上线了这项服务。根据实测,Groq的回复速度达到了惊人的每秒约1256.54个token,几乎可以说是即时响应。这一数据较该公司4月份展示的每秒800个token又有显著提升,展现了其技术的快速进步。

Groq的CEO Jonathan Ross在接受采访时表示:"我们的技术将彻底改变人们使用LLMs的方式。一旦体验到这种前所未有的速度,用户就会意识到LLMs的无限可能。"

目前,Groq网站默认使用Meta开源的Llama3-8b-8192模型,同时还支持更强大的Llama3-70b以及来自Google的Gemma和Mistral的部分模型。Ross透露,未来将进一步扩大支持的模型范围,以满足不同用户的需求。

在实际体验中发现,Groq不仅在速度上令人惊叹,其功能的多样性和灵活性同样出色。无论是生成职位描述、撰写文章,还是进行即时修改,都能以令人瞠目结舌的速度完成。更值得一提的是,Groq还支持语音输入功能,采用了OpenAI最新的Whisper Large V3模型进行语音识别和翻译。

业内专家指出,Groq之所以能够实现如此高效的性能,很大程度上归功于其自主研发的语言处理单元(LPU)。与传统的GPU相比,LPU在处理LLM任务时表现出更高的效率和更低的能耗。据Groq方面透露,其技术在大多数工作负载下的能耗仅为GPU的十分之一,这一数据无疑对当前GPU主导的AI计算格局提出了严峻挑战。自16周前服务推出以来,Groq已吸引了超过28.2万名开发者。公司还贴心地为原本在OpenAI平台上开发的应用程序提供了便捷的迁移途径,进一步降低了开发者的使用门槛。

面对如此亮眼的表现,业界不禁要问:Groq是否真的能撼动现有AI巨头的地位?对此,Ross表现出了十足的信心。他大胆预测,到明年,全球超过一半的推理计算将在Groq的芯片上进行。

然而,也有分析师持谨慎态度。他们指出,尽管Groq在技术上展现出巨大潜力,但要真正挑战已建立的行业巨头,仍面临诸多挑战,包括市场认知度、生态系统建设、以及大规模商业化等方面的考验。

无论如何,Groq的横空出世无疑为AI行业注入了新的活力。在即将举行的VentureBeat2024Transform大会上,Ross将作为开场演讲嘉宾,届时或将揭晓更多关于Groq的未来计划。

随着AI技术的日新月异,Groq的创新无疑为整个行业带来了新的可能性。它不仅展示了LLM应用的广阔前景,更为AI的普及和高效部署指明了新的方向。我们有理由期待,在不久的将来,AI技术将以更快的速度、更低的成本、更高的效率融入我们的日常生活和工作中。