英伟达发布AI Enterprise 5.0,帮助企业加速生成式AI开发

添加书签

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

英伟达正式发布了AI Enterprise 5.0,该产品包括英伟达微服务、可下载的软件容器,用于部署生成式 AI 应用程序和加速计算。可以从领先的云服务提供商、系统构建商和软件供应商处获得,并且已被 Uber 等知名客户使用。

详细地址:https://www.nvidia.com/en-us/data-center/products/ai-enterprise/

英伟达发布AI Enterprise 5.0,帮助企业加速生成式AI开发插图

开发人员正在转向微服务,将其作为在全球范围内构建现代企业应用程序的有效方式。他们通过浏览器工作,使用云 API 或应用程序编程接口来编写可在系统上运行并为全球用户提供服务的应用程序。

NVIDIA AI Enterprise 5.0 现在包含广泛的微服务 -用于在生产中部署 AI 模型的  NVIDIA NIM以及包括NVIDIA CUOpt的NVIDIA CUDA-X微服务集合。

NIM 微服务优化了来自 NVIDIA 及其合作伙伴生态系统的数十种流行 AI 模型的推理。

NIM 由 NVIDIA 推理软件(包括 Triton Inference Server、TensorRT 和 TensorRT-LLM)提供支持,将部署时间从几周缩短到几分钟。它提供基于行业标准的安全性和可管理性以及与企业级管理工具的兼容性。

NVIDIA cuOpt是一种GPU 加速的 AI 微服务,创造了路线优化的世界记录,并可以支持动态决策,从而降低成本、时间和碳足迹。它是帮助各行业将人工智能投入生产的 CUDA-X 微服务之一。

更多功能正在开发中,例如,NVIDIA RAG LLM 操作员(现在处于早期访问阶段)将把副驾驶和其他使用检索增强生成的生成式 AI 应用程序从试点转移到实际应用落地,而无需重写任何代码。

英伟达表示,无论通过何种方式访问, AI Enterprise 5.0 都能帮助用户从安全、可投入生产且性能优化的软件中受益,并可以灵活地部署在数据中心、云端、工作站或网络边缘的应用程序。

本文素材来源英伟达官网,如有侵权请联系删除

END

英伟达发布AI Enterprise 5.0,帮助企业加速生成式AI开发插图1

英伟达发布AI Enterprise 5.0,帮助企业加速生成式AI开发插图2

本篇文章来源于微信公众号: AIGC开放社区