AI 开发项⽬的不断增加意味着越来越多的 AI ⼯程师和研究⼈员正在创建 AI 模型和 AI 集成应⽤程序。需要额外的计算资源来⽀持这些新的开发者和新的 AI 开发项⽬。NVIDIA 正为开发者提供工具,使其能够将 AI 无缝集成到创意项目、应用程序和游戏中,更以搭载 NVIDIA RTX PRO™ Blackwell 新一代桌面端 GPU 的 AI 工作站为开发者提供了本地全栈算力支持。
新⼀代 AI ⼯作站可为每个⼯作站配置四⽚ NVIDIA RTX PRO 桌面端专业 GPU,带来令⼈惊叹的综合计算性能和 192 GB 的系统 GPU 总显存。如此性能⽔平可让开发⼈员充分利⽤ NVIDIA AI 这⼀全球最先进的平台,从⽽加速基础架构、企业级软件和 AI 模型⽅⾯的全栈式创新。NVIDIA AI Workbench 提供了一个用于管理数据、模型、资源和计算需求的单一平台。借助 NVIDIA AI Workbench,您可以利用 RTX 工作站的强大功能来执行微调 LLM 或训练较小的 AI 模型等任务,同时仍可在需要时灵活地扩展到数据中心或云端。NVIDIA RTX PRO助⼒的 AI ⼯作站与 NVIDIA AI 平台相结合,可以成为经济⾼效且功能强⼤的⽣成式 AI 的切⼊点。
新一代 NVIDIA RTX PRO™ GPU:驱动 AI 新时代
在 NVIDIA GTC 2025 全球 AI 大会上,NVIDIA 推出了 NVIDIA RTX PRO™ Blackwell GPU 系列,这是一代新的工作站和服务器 GPU,专为复杂的 AI 驱动工作负载、技术计算和高性能图形设计。
NVIDIA RTX PRO GPU 是开发中小型 AI 模型并进行原型设计的理想选择,可提供在本地工作站上快速迭代和测试复杂模型所需的计算能力。RTX PRO GPU 搭载第 5 代 Tensor Core 并支持 FP4 数据格式,与上一代相比,可显著加速机器学习工作流,帮助研究人员和数据科学家更快构建和优化 AI 模型。 这可加快从深度学习和神经网络到数据分析的创新型 AI 应用的实验、验证和开发,为 AI 项目提供快速迭代和发现所需的本地计算能力。
> 数据科学
直接在 RTX Pro GPU 上处理大规模数据集,完成计算密集型数据科学工作流。借助高达容量的超高速 GDDR7 显存,数据科学家可以检查大型数据集,而不会影响大小或保真度。RTX Pro GPU 上的 RAPIDS 库套件可加速数据处理任务,无需更改代码即可更快完成探索性 数据分析、特征工程和模型开发。
> 机器学习和 AI
直接在桌面端上浏览大型数据集,开发、微调和验证模型。利用适用于深度学习的第 5 代 Tensor Core 技术 (FP4 精度),NVIDIA RTX GPU 可优化模型,减少显存占用并加速训练和推理性能。这有助于开发者和数据科学家在本地处理更大、更复杂的模型和数据集,从而大大缩短开发周期并加快迭代。
> 软件开发
运行资源密集型软件开发任务,包括编译大型代码库、数据库以及开发复杂的软件。在 RTX PRO AI 工作站上快速创建、测试 AI 应用并进行原型设计,然后无缝部署到数据中心或云,以扩大生产规模。
▲ NVIDIA RTX PRO™ 5000 Blackwell
NVIDIA RTX PRO™ 5000 Blackwell 将最新 RT Core、Tensor Core 和 CUDA® 核心与 48GB 图形显存相结合,可提供所需的出色性能,助力设计师、工程师和艺术家引领创新潮流。
> 超大显存与多GPU配置
全新改进的 GDDR7 显存可大幅提升带宽和容量,使您的应用能够更快地运行,并处理更大、更复杂的数据集。凭借 48 GB 的 GPU 显存和 1.3 TB/s 的带宽,您可以处理大型 3D 和 AI 项目,在本地微调 AI 模型,探索大规模 VR 环境,并推动更大的多应用工作流。
> NVIDIA Blackwell 流式多核处理器
新的 SM 具有更高的处理吞吐量,全新的神经网络着色器,可将神经网络集成到可编程着色器中,以推动下一个十年的 AI 增强图形创新。
> 第 5 代 Tensor Core加速AI处理
性能高达上一代的 3 倍,支持 FP4 精度,可缩短 AI 模型处理时间,同时减少显存占用,实现 LLM 和生成式 AI 的本地微调。
> PCIe Gen 5 带来更大带宽
全新改进的 GDDR7 显存可大幅提升带宽和容量,使您的应用能够更快地运行,并处理更大、更复杂的数据集。凭借 48 GB 的 GPU 显存和 1.3 TB/s 的带宽,您可以处理大型 3D 和 AI 项目,在本地微调 AI 模型,探索大规模 VR 环境,并推动更大的多应用工作流。
NVIDIA AI Workbench 助力 AI 应用开发
NVIDIA AI Workbench 是一套整合的、易于使用的工具包,可以帮助开发者在 GPU 工作站上快速创建、测试和定制预训练的生成式 AI 模型和 LLM(大语言模型),并将他们扩展到几乎任何类型的数据中心及公有云。简化的用户界面不仅便于 AI 项目团队之间开展协作,而且能够流畅地访问 Hugging Face、GitHub 和 NVIDIA NGC 等热门资源库。
开发 AI 工作负载从一开始就需要手动执行一些通常来说很复杂的流程。
设置 GPU、更新驱动和管理版本不兼容问题可能会很麻烦。在不同系统之间复制项目可能需要一遍又一遍地重复手动流程。复制项目时若出现数据碎片化和版本控制问题等不一致情况,还可能阻碍协作。各种设置流程、移动凭据和机密,以及更改环境、数据、模型和文件位置都会限制项目的可移植性。
借助 AI Workbench,数据科学家和开发者可以更轻松地跨异构平台管理工作和协作。该工具在开发流程的各个方面实现了集成和自动化,并具有以下特点:
• 易于设置:AI Workbench 简化了 GPU 加速的开发环境的设置流程,让技术知识有限的用户也能操作。
• 无缝协作:AI Workbench 与 GitHub 和 GitLab 等版本控制和项目管理工具集成,有助于减少协作时可能产生的不便。
• 从本地扩展到云端时保持一致性:AI Workbench 确保跨多个环境依然可以保持一致性,支持在本地工作站或 PC 和数据中心或云端之间扩容或缩容。
点击此处,深入了解如何开始使用 AI Workbench。
立即行动,开启全栈AI开发
点击注册链接或扫描下方二维码,免费下载 NVIDIA AI Workbench 解决方案概述电子书,您可以获取以下资源:
• NVIDIA AI Workbench 功能特性与开发环境
• AI Workbench 项目应用示例
• AI Workbench 进行 AI 与机器学习开发优势
点击此处,完成注册,立即升级您的开发工具链,抢占生成式AI技术高地!
* 与 NVIDIA 产品相关的图片或视频(完整或部分)的版权均归 NVIDIA Corporation 所有。