《NVIDIA宣布推出 Hopper 架构掀起新一代加速计算浪潮.docx》由会员分享,可在线阅读,更多相关《NVIDIA宣布推出 Hopper 架构掀起新一代加速计算浪潮.docx(3页珍藏版)》请在第一文库网上搜索。
1、NV1DIA宣布推出Hopper架构,掀起新一代加速计算浪潮作为全球AI基础设施的全新引擎,NVIDIAH1OOGPU实现了数量级的性能飞跃加利福尼亚州圣克拉拉市一一GTC大会一一太平洋时间2023年3月22日一一为推动AI数据中心的新一轮发展,NVIDIA于今日宣布推出采用NVIDIAHopper架构的新一代加速计算平台。与上一代产品相比,该平台实现了数量级的性能飞跃。这一全新架构以美国计算机领域的先驱科学家GraceHopper的名字命名,将取代两年前推出的NVIDIAAmpere架构。NVIDIA同时发布其首款基于Hopper架构的GPU一NVIDIAH1OOo该款GPU集成了800亿个
2、晶体管。H1OO是全球范围内最大的性能出众的加速器,拥有革命性的Transformer引擎和高度可扩展的NVIDIANV1ink互连技术等突破性功能,可推动庞大的AI语言模型、深度鲜系统、基因组学和复杂数字挛生的发展。NVIDIA创始人兼CEO黄仁勋表示:“数据中心正在转变成AI工,o它们处理大量数据,以实现智能。NVIDIAH1OO是全球AI基础设施的引擎,让企业能够利用其实现自身AI业务的加速。”H1OO技术突破H1OONVIDIAGPU为加速大规模AI和HPC设定了新的标准,带来了六项突破性创新:世界最先进的型1H1OO由800亿个晶体管构建而成,这些晶体管采用了专为NVIDIA加速计算
3、需求设计的尖端的TSMC4N工艺,因而能够显著提升AEHPC,显存带宽、互连和通信的速度,并能够实现近5TBs的外部互联带宽。H1OO是首款支持PCIe5.0的GPU,也是首款采用HBM3的GPU,可实现3TBs的显存带宽。20个H1OOGPU便可承托相当于全球互联网的流量,使其能够帮助客户推出先进的推荐系统以及实时运行数据推理的大型语言模型。新的Transformer引擎Transformer现在已成为自然语言处理的标准模型方案,也是途度型模型领域最重要的模型之一。H1OO加速器的TranSfOrmer引擎旨在不影响精度的情况下,将这些网络的速度提升至上一代的六倍。第二代安全多实例GPUMI
4、G技术支持将单个GPU分为七个更小且完全独立的实例,以处理不同类型的作业。与上一代产品相比,在云环境中Hopper架构通过为每个GPU实例提供安全的多租户配置,将MIG的部分能力扩展了7倍。机密计算一一H1OO是全球首款具有机密计算功能的加速器,可保护AI模型和正在处理的客户数据。客户还可以将机密计算应用于医疗健康和金融服务等隐私敏感型行业的联邦学习,也可以应用于共享云基础设施。第4代NVIDIANV1ink为加速大型AI模型,NV1ink结合全新的外接NV1inkSwitch,可将NV1ink扩展为服务器间的互联网络,最多可以连接多达256个H1OOGPU,相较于上一代采用NV1D1AHDR
5、QuantumInfiniBand网络,带宽高出9倍。DPX指令一一新的DPX指令可加速动态规划,适用于包括路径优化和基因组学在内的一系列复法,与CPU和上一代GPU相比,其速度提升分别可达40倍和7倍。F1oyd-Warsha11算法与Smith-Waterman算法也在其加速之列,前者可以在动态仓库环境中为自主机器人车队寻找最优线路,而后者可用于DNA和蛋白质分类与折叠的序列比对。H1OO的多项技术创新相结合,进一步扩大了NV1DIA在AI推理和训练的领导地位,利用大规模AI模型实现了实时沉浸式应用。H1OO将支持聊天机器人使用功能超强大的mono1ithicTransformer语言模型
6、Megatron530B,吞衽量比上一代产品高出30倍,同时满足实时对话式AI所需的次秒级延迟。利用H100,研究人员和开发者能够训练庞大的模型,如包含3950亿个参数的混合专家模型,训练速度加速高达9倍,将训练时间从几周缩短到几天。NVIDIAH1OO的广泛采用NVIDIAH1OO可部署于各种数据中心,包括内部私有云、云、混合云和边缘数据中心。这款产品预计于今年晚些时候全面发售,届时企业可从全球各大云服务提供商和计算机制造商处购买,或者直接从NVIDIA官方渠道购买。NVIDIA的第四代DGXTM系统DGXH1OO配备8块H1OOGPU,以全新的FP8精度提供32Petaf1op的A1性能,
7、并支持扩展,能够满足大型语言模型、推荐系统、医疗健康研究和气候科学的海量计算需求。DGXH1OO系统中的每块GPU都通过第四代NV1ink连接,可提供900GBs的带宽,与上一代相比,速度提升了1.5倍。NVSwitchw支持所有八块H1OOGPU通过NV1ink全互联。新一代NVIDIADGXSuperPOD超级计算机可通过外部NV1inkSwitch互联,最多可连接32个DGXH1OO节点。Hopper已在行业内获得各大云服务提供商的广泛支持,包括阿里云、AWS百度智能云、Goog1eC1oudMicrosoftAzure、Orac1eC1oud、腾讯云和火山引擎,这些云服务商均计划推出基
8、于H1OO的实例全球领先的系统制造商,包括源讯、BOXX在ChnoIOgies、思科、戴尔科技、富士通、技嘉、新华三、慧与(HPE)、浪潮、联想、宁畅和超微预计推出各种采用H1OO加速器的服务器。规模各异的NVIDIAH1OOH1OO将提供SXM和PCIe两种规格,可满足各种服务器设计需求。此外,NVID1A还会推出融合加速器,疆食H1OOGPU与NVIDIAConneCtX-7400GbsInfiniBand和以太网智能网卡。NVIDIAH1OOSXM提供4GPU和8GPU配置的HGXH1OO服务器主板,可助力企业将应用扩展至一台服务器和多台服务器中的多个GPU0基于HGXH1OO的服务器可
9、为AI训练和推理以及数据分析和HPC应用提供更高的应用性能。H1OOPCIe通过NV1ink连接两块GPU,相较于PCIe5.0,可提供7倍以上的带宽,为主流企业级服务器上运行的应用带来卓越的性能。PC1e规格便于集成到现有的数据中心基础设施中。H1OOCNX是一款全新的融合加速器。这款加速器将H1OO与ConnectX-7智能网卡相结合,可为I/O密集型应用(如企业级数据中心内的多节点AI训练和边缘5G信号处理)提供强劲性能。NVIDIAHopper架构GPU还可与NVIDIAGraceCPU通过NV1ink-C2C互联,与PCIe5.0相比,可将CPU和GPU之间的通信速度提高7倍以上。这一组合,即GraCeHopper超级芯片,可用于大规模HPC和AI应用。NVIDIA软件支持H1OONVIDIAGPU由功能强大的软件工具提供支持,可助力开发者和企业构建并加速AEHPC等一系列应用。其中包括用于语音、推荐系统和超大规模推理等工作负载的NVIDIAAI软件套件的重大更新。NVIDIA还发布了60多个针对CUDA-Xw的一系列库、工具和技术的更新,以加速量子计算和6G研究、网络安全、基因组学和药物研发等领域的研究进展。供货信息NVIDIAII1OO将自第三季度起开始供货。