英伟达AI Workbench正式发布,大幅度简化大模型开发流程

添加书签

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

3月22日,英伟达在官网宣布,正式发布NVIDIA AI Workbench。

AI Workbench是一款面向AI大模型开发人员的工具包,可以帮助开发人员消除很多繁琐、复杂的部署、开发流程。

无论你的技术水平如何,开发人员都可以体验快速可靠的 GPU 环境设置以及跨异构平台工作、管理和协作。

免费下载地址:https://www.nvidia.com/en-us/deep-learning-ai/solutions/data-science/workbench/

AI Workbench主要功能介绍:

  • 快速安装、设置和配置基于GPU的开发环境。
  • 基于最新模型的预构建、即插即用的生成式人工智能和机器学习示例项目。
  • 使用NVIDIA API目录中的云端端点或本地NVIDIA NIM微服务部署生成式AI模型。
  • 直观的用户体验加上命令行界面(CLI)。
  • 易于在不同开发环境中复现和移植。
  • 基于 Git 和容器的开发环境自动化。
  • 容器和Git仓库的版本控制和管理。
  • 与GitHub、GitLab和NVIDIA NGC目录的集成。
  • 凭证、秘密和文件系统变更的透明处理。


自Beta版发布以来,AI Workbench还增加了几个新的关键功能:

Visual Studio (VS) Code支持:直接集成到VS Code中,以在GPU环境中编排容器化项目。

基础镜像选择:用户在创建项目时可以选择自己的容器镜像作为项目的基础镜像。容器镜像必须使用符合基础镜像规范的镜像标签。

改进的软件包管理:用户可以通过Workbench用户界面直接管理和添加软件包到容器中。

安装改进:Windows和MacOS用户有更简单的安装路径。Docker容器运行时也得到了改进的支持。

AI Workbench 可以将生成式人工智能开发引入任何支持 GPU 的环境,提供统一界面,适用于数亿台现代 NVIDIA RTX 驱动的工作站和个人电脑,也适用于数据中心和云端。

Mac 用户可以安装 AI Workbench,并将项目迁移到 NVIDIA 驱动的系统,以便进行协作和获得更强大的计算能力。

NVIDIA提供一系列免费的Workbench项目示例,以帮助开发者入门:

使用混合检索增强生成(RAG)与你的文档进行交流。在你的系统上运行嵌入模型,将文档存储在私人向量数据库中。使用NVIDIA API在云端配置推理,或者在RTX系统上使用NIM推理微服务本地运行。

在任何规模上定制LLMs。从在本地运行量化模型到进行全面微调以优化精度。进行微调并在任何地方运行——在RTX系统上本地运行,或者扩展到数据中心或云端。在GitHub上查看Llama-2或Mistral-7B项目。

在RTX PC或云端上运行Stable Diffusion XL,通过文本提示生成定制图像。轻松在你选择的GPU启用环境中重现,以便用你的图像对模型进行微调。

除了快速的GPU工作站设置外,AI Workbench还提供示例项目作为一个即插即用的起点,帮助开发人员更快地开始他们的数据和用例。Workbench项目整合了所有需要的资源和元数据,以简化跨各种基础设施的工作流管理,同时促进无缝移植和可在任何地方再现性。

本文素材来源英伟达官网,如有侵权请联系删除

END

本篇文章来源于微信公众号: AIGC开放社区