AI 文摘

老黄深夜炸场,AIGC进入iPhone时刻!HuggingFace接入最强超算,神秘显卡胜过A100





作者: 新智元 来源: 新智元

****新智元报道

编辑:编辑部

####【新智元导读】 昨天深夜,重返SIGGRAPH舞台的老黄,再次给全世界带来了「亿点点」震撼。

生成式AI的时代已经来临,属于它的iPhone时刻到了!

就在8月8日,英伟达CEO黄仁勋,再次登上了世界顶级计算机图形学会议SIGGRAPH的舞台。

一系列重磅更新接踵而至——下一代GH200超级芯片平台、AI Workbench、OpenUSD……

而英伟达也借此将过去数十年的所有创新,比如人工智能、虚拟世界、加速、模拟、协作等等,一举融合到一起。

在这个LLM大爆炸的时代,老黄依然敢大胆放话:「买得越多,省得越多!」

英伟达最强AI超算再升级

在5年前的SIGGRAPH上,英伟达通过将人工智能和实时光线追踪技术引入GPU,重新定义了计算机图形学。

老黄表示:「当我们通过AI重新定义计算机图形学时,我们也在为AI重新定义GPU。」

随之而来的,便是日益强大的计算系统。比如,集成了8个GPU并拥有1万亿个晶体管的NVIDIA HGX H100。

就在今天,老黄再次让AI计算上了一个台阶——

除了为NVIDIA GH200 Grace Hopper配备更加先进的HBM3e内存外,下一代GH200超级芯片平台还将具有连接多个GPU的能力,从而实现卓越的性能和易于扩展的服务器设计。

而这个拥有多种配置的全新平台,将能够处理世界上最复杂的生成式工作负载,包括大语言模型、推荐系统和向量数据库等等。

比如,双核心方案就包括一台配备了144个Arm Neoverse核心并搭载了282GB HBM3e内存的服务器,可以提供8 petaflops的AI算力。

其中,全新的HBM3e内存要比当前的HBM3快了50%。而10TB/sec的组合带宽,也使得新平台可以运行比上一版本大3.5倍的模型,同时通过3倍更快的内存带宽提高性能。

据悉,该产品预计将在2024年第二季度推出。

RTX工作站:绝佳刀法,4款显卡齐上新

这次老黄的桌面AI工作站GPU系列也全面上新,一口气推出了4款新品:RTX 6000、RTX 5000、RTX 4500和RTX 4000。

如果H100以及配套的产品线展示的是英伟达GPU性能的天际线的话,针对桌面和数据中心推出的这几款产品,则是老黄对成本敏感客户秀出的绝佳「刀法」。

在发布这新GPU的时候,现场还出现了一个意外的小花絮。

老黄从后台拿出第一块GPU的时候,似乎不小心在镜面面板上沾了指纹。

老黄发现后觉得可能是自己搞砸了,就很不好意思地和现场观众说对不起,表示这次产品发布可能是有史以来最差的一次。

看来就算开发布会熟练如老黄,也会有翻车的时刻。

而如此可爱的老黄,也惹得在场观众不断发笑。

言归正传,作为旗舰级专业卡,RTX 6000的性能参数毫无疑问是4款新品中最强的。

凭借着48GB的显存,18176个CUDA核心,568个Tensor核心,142个RT核心,和高达960GB/s的带宽,它可谓是一骑绝尘。

RTX 5000配备了32GB显存,12800个CUDA核心,400个Tensor核心,100个RT核心。

RTX 4500配备了24GB显存,7680个CUDA核心,240个Tensor核心,60个RT核心。

RTX 4000配备了20GB显存,6144个CUDA核心,192个Tensor核心,48个RT核心。

基于新发布的4张新的GPU,针对企业客户,老黄还准备一套一站式解决方案—— RTX Workstation。

支持最多4张RTX 6000 GPU,可以在15小时内完成8.6亿token的GPT3-40B的微调。

还能让Stable Diffusion XL每分钟生成40张图片,比4090快5倍。

OVX服务器:搭载L40S,性能小胜A100

而专为搭建数据中心而设计的NVIDIA L40S GPU,性能就更加爆炸了。

基于Ada Lovelace架构的L40S,配备有48GB的GDDR6显存和846GB/s的带宽。

在第四代Tensor核心和FP8 Transformer引擎的加持下,可以提供超过1.45 petaflops的张量处理能力。

对于算力要求较高的任务,L40S的18,176个CUDA核心可以提供近5倍于A100的单精度浮点(FP32)性能,从而加速复杂计算和数据密集型分析。

此外,为了支持如实时渲染、产品设计和3D内容创建等专业视觉处理工作,英伟达还为L40S 还配备了142个第三代RT核心,可以提供212 teraflops的光线追踪性能。

对于具有数十亿参数和多种模态的生成式AI工作负载,L40S相较于老前辈A100可实现高达1.2倍的推理性能提升,以及高达1.7倍的训练性能提升。

在L40S GPU的加持下,老黄又针对数据中心市场,推出了最多可搭载8张L40S的OVX服务器。

对于拥有8.6亿token的GPT3-40B模型,OVX服务器只需7个小时就能完成微调。

对于Stable Diffusion XL模型,则可实现每分钟80张的图像生成。

AI Workbench:加速定制生成式AI应用

除了各种强大的硬件之外,老黄还重磅发布了全新的NVIDIA AI Workbench,来帮助开发和部署生成式AI模型。

概括来说,AI Workbench为开发者提供了一个统一且易于使用的工具包,能够快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIA DGX Cloud上。

具体而言,AI Workbench的优势如下:

-** 易于使用**

AI Workbench通过提供一个单一的平台来管理数据、模型和计算资源,简化了开发过程,支持跨机器和环境的协作。

- 集成AI开发工具和存储库

AI Workbench与GitHub、NVIDIA NGC、Hugging Face等服务集成,开发者可以使用JupyterLab和VS Code等工具,并在不同平台和基础设施上进行开发。

- 增强协作

AI Workbench采用的是以项目为中心的架构,便于开发者进行自动化版本控制、容器管理和处理机密信息等复杂任务,同时也可以支持团队之间的协作。

- 访问加速计算资源

AI Workbench部署采用客户端-服务器模式。团队可以现在在本地计算资源上进行开发,然后在训练任务变得更大时切换到数据中心或云资源上。

####Stable Diffusion XL自定义图像生成

首先,打开AI Workbench并克隆一个存储库。

接下来,在Jupyter Notebook中,从Hugging Face加载预训练的Stable Diffusion XL模型,并要求它生成一个「太空中的Toy Jensen」。

然而,根据输出的图像可以看出,模型并不知道Toy Jensen是谁。

这时就可以通过DreamBooth,并使用8张Toy Jensen的图片对模型进行微调。

最后,在用户界面上重新运行推理。

现在,知道了Toy Jensen是谁的模型,就可以生成切合需求的图像了。

####Hugging Face一键访问最强算力

作为最受AI开发者喜爱的平台之一,拥有200万用户、超25万个模型,以及5万个数据集的Hugging Face,这次也与英伟达成功达成了合作。

现在,开发者可以通过Hugging Face平台直接获得英伟达DGX Cloud AI超算的加持,从而更加高效地完成AI模型的训练和微调。

其中,每个DGX Cloud实例都配备有8个H100或A100 80GB GPU,每个节点共有640GB显存,可满足顶级AI工作负载的性能要求。

此外,英伟达还将联合Hugging Face推出全新的「Training Cluster as a Service」服务,简化企业创建和定制生成式AI模型的过程。

对此,老黄激动得表示:「这次,Hugging Face和英伟达将世界上最大的AI社区与全球领先的云AI计算平台真正地连接在了一起。Hugging Face的用户只需点击一下,即可访问英伟达的最强AI算力。」

AI Enterprise 4.0:定制企业级生成式AI

为了进一步加速生成式AI的应用,英伟达也将其企业级平台NVIDIA AI Enterprise升级到了4.0版本。

目前,AI Enterprise 4.0不仅可以为企业提供生成式AI所需的工具,同时还提供了生产部署所需的安全性和API稳定性。

- NVIDIA NeMo

一个用于构建、定制和部署大语言模型的云原生框架。借助NeMo,英伟达AI Enterprise可以为创建和定制大语言模型应用提供了端到端的支持。

- NVIDIA Triton管理服务

帮助企业进行自动化和优化生产部署,使其在Kubernetes中能够自动部署多个推理服务器实例,并通过模型协调实现可扩展A 的高效运行。

- NVIDIA Base Command Manager Essentials集群管理软件

帮助企业在数据中心、多云和混合云环境中最大化AI服务器的性能和利用率。

除了英伟达自己,AI Enterprise 4.0还将集成到给其他的合作伙伴,比如Google Cloud和Microsoft Azure等。

此外,MLOps提供商,包括Azure Machine Learning、ClearML、Domino Data Lab、Run:AI和Weights & Biases,也将与英伟达AI平台进行无缝集成,从而简化生成式AI模型的开发。

Omniverse:在元宇宙中加入大语言模型

最后,是NVIDIA Omniverse平台的更新。

在接入了OpenUSD和AIGC工具之后,开发者可以更加轻松地生成模拟真实世界的3D场景和图形。

就像它的名字一样,Omniverse的定位是一个集合了各种工具的3D图形制作协作平台。

3D开发者可以像文字编辑们在飞书或者钉钉中一样,在Omniverse上共同制作3D图形和场景。

而且可以将不同的3D制作工具制作出来的成果直接整合在Omniverse之内,将3D图形和场景的制作工作流彻底打通,化繁为简。

####OpenUSD

而这次更新中,接入的OpenUSD是什么东西?

OpenUSD(Universal Scene Description)提供了一个开源,通用的场景描述格式,使不同品牌、不同类型的3D设计软件可以无障碍的协作。

Omnivers本身就是建立在USD体系之上的,这次Omniverse针对OpenUSD的升级,使得Omniverse能为开发者,企业推出了更多的框架和资源服务。

基于OpenUSD这个开源的3D图像编辑格式,5家公司(苹果,皮克斯,Adobe,Autodesk,英伟达)成立了AOUSD联盟,进一步推动了3D图像业界采用OpenUSD格式。

而且,借助AOUSD联盟的成立,Omniverse的开发者也可以方便的创建各种兼容于苹果的ARKit或者是RealityKit的素材和内容,更新后Omniverse也支持OpenXR的标准,使得Omniverse能够支持HTC VIVE,Magic Leap,Vajio等VR头显设备。

####API,ChatUSD和其他更新

此外,英伟达还发布了新的Omniverse Cloud API,让开发者可以更加无缝地部署OpenUSD管线和应用程序。

而最引人瞩目的,就是支持基于大语言模型的ChatUSD的支持。

基于大语言模型技术的ChatUSD能像Github Copilot一样,在Omniverse平台中回答开发者的相关问题,或者自动生成Python-USD的代码,让开发人员效率暴增。

总而言之,英伟达再次用暴力的产品,令人惊叹的技术,高瞻远瞩的洞见,让全世界再次看到,它未来将如何引领世界AI和图形计算的新浪潮。

在老黄的经典名言「the more you buy,the more you save!」中,老黄缓缓走下舞台,却把现场气氛推向了最高潮。

参考资料:

https://www.nvidia.cn/events/siggraph/

更多AI工具,参考Github-AiBard123国内AiBard123

可关注我们的公众号:每天AI新工具