近日,英伟达(Nvidia)悄然推出了其全新AI服务——AI Foundry,这一举措可能会引发企业定制AI模型的热潮。此服务旨在帮助企业开发和部署符合自身需求的定制大语言模型,以更高的准确度和控制力来应对市场的快速变化。

image.png

AI Foundry结合了英伟达的硬件、软件工具和专业知识,帮助公司开发出针对具体业务需求的定制化开源模型,例如Meta刚刚发布的Llama3.1。随着企业越来越希望利用生成式AI技术,同时又希望掌控自己的数据和应用,AI Foundry的推出正逢其时。

英伟达表示,通过对这些开源模型的定制,能够显著提高模型的表现。例如,定制后的模型准确度能提高近10个百分点。AI Foundry不仅提供了大量预训练模型,还通过英伟达的DGX Cloud和NeMo工具包提供高性能计算资源和模型定制评估。此外,英伟达的AI专家团队还将提供专业指导。

除了AI Foundry,英伟达还推出了NIM(Nvidia Inference Microservices),这是一种将定制模型打包成容器化、API可访问格式的服务,简化了模型的部署过程。NIM标志着英伟达在AI模型部署方面的一项重大突破,展示了公司在多年研究和开发上的积累。

此次发布的时机也很微妙,正值Meta发布Llama3.1之际,同时也在AI安全性和治理问题日益引发关注的背景下。通过提供一个让企业能够创建和控制自己AI模型的服务,英伟达可能在满足企业对高级AI需求的同时,规避了使用公共通用模型的风险。

然而,定制AI模型的广泛部署也可能带来一些挑战,如AI能力在各行业间的碎片化以及保持一致的AI安全和伦理标准的困难。随着AI行业竞争的加剧,英伟达的AI Foundry将成为其在企业AI市场未来布局的重要一步。

官方博客:https://blogs.nvidia.com/blog/ai-foundry-enterprise-generative-ai/

### 划重点:

📊 **定制化提升准确度**:英伟达AI Foundry能显著提高AI模型的准确度,定制后准确度提升近10%。

🛠️ **全新部署方式**:NIM服务将定制模型打包成API可访问的容器化格式,简化部署过程。

📅 **发布时机特殊**:此次发布正值Meta Llama3.1发布之际,旨在满足企业对高级AI模型的定制需求。