浅谈ChatGPT技术背后的超算.docx

上传人:lao****ou 文档编号:954036 上传时间:2024-08-04 格式:DOCX 页数:7 大小:126.08KB
下载 相关 举报
浅谈ChatGPT技术背后的超算.docx_第1页
第1页 / 共7页
浅谈ChatGPT技术背后的超算.docx_第2页
第2页 / 共7页
浅谈ChatGPT技术背后的超算.docx_第3页
第3页 / 共7页
浅谈ChatGPT技术背后的超算.docx_第4页
第4页 / 共7页
浅谈ChatGPT技术背后的超算.docx_第5页
第5页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《浅谈ChatGPT技术背后的超算.docx》由会员分享,可在线阅读,更多相关《浅谈ChatGPT技术背后的超算.docx(7页珍藏版)》请在第一文库网上搜索。

1、浅谈ChatGPT技术背后的超算ChatGPT能成为如今火遍全球的顶流模型,少不了背后超强的算力。数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)。那么,作为依托的那台微软专为OPen总打造的超级计算机,又是如何诞生的呢?周一,微软在官博上连发两文,亲自解密这台超级昂贵的超级计算机,以及AZUre的重磅升级一一加入成千上万张甚伟达最强的H1OO显卡以及更快的InfiniBand网络互连技术。基于此,微软也官宣了最新的NDH1OOv5虚拟机,具体规格如下:8个NVIDIAH1OOTensorCoreGPU通过下一代NVSwitch和N

2、V1ink4.0互联每个GPU有400Gb/s的NV1DIAQuantum-2CX7InfiniBand,每个虚拟机有3.2Tbs的无阻塞胖树型网络NVSwitch和NV1ink4.0在每个虚拟机的8个本地GPU之间具有3.6TBs的双向带宽第四代英特尔至强可扩展处理器PCIEGen5到GPU互连,每个GPU有64GBs带宽16通道4800MHzDDR5DIMM数亿美元撑起来的算力大约五年前,OpenAI向微软提出了一个大胆的想法建立一个可以永远改变人机交互方式的人工智能系统。当时,没人能想到,这将意味着A1可以用纯语言创造出人类所描述的任何图片,人类可以用聊天机器人来写诗、写歌词、写论文、写

3、邮件、写菜单为了建立这个系统,OPenA1需要很多算力一一可以真正支撑起超大规模计算的那种。但问题是,微软能做到吗?毕竟,当时既没有能满足ODen没需要的硬件,也无法确定在AZUre云服务中构建这样庞大的超级计算机会不会直接把系统搞崩。随后,微软便开启了一段艰难的摸索。为了构建支持OPenA1项目的超级计算机,它斥资数亿美元,在AZUre云计篁平台上将几万个NVidiaA1OO甚左连接在一起,并改造了服务器机架。此外,为了给OPenA1量身打造这个超算平台,微软十分尽心,一直在密切关注着OpenAI的需求,随时了解他们在训练A1时最关键的需要。这么一个大工程,成本究竟是多少呢?微软负责云计算和

4、人工智能的执行副总裁ScottGUthrie不愿透露具体数目,但他表示,可能不止几亿美兀0OpenAI出的难题微软负责战略合作伙伴关系的高管PhiIWaymoUth指出,OPenAI训练模型所需要的云计算基础设施规模,是业内前所未有的。呈指数级增长的网络GPU集群规模,超过了业内任何人试图构建的程度。微软之所以下定决心与OPenA1合作,是因为坚信,这种前所未有的基础设施规模将改变历史,造出全新的AI,和全新的播平台,为客户提供切实符合他们利益的产品和服务。现在看来,这几亿美元显然没白花一一宝押对了。在这台超算上,OpenAI能够训练的模型越来越强大,并且解锁了AI工具令人惊叹的功能,几乎开启

5、人类第四次工业革命的ChatGPT,由此诞生。非常满意的微软,在1月初又向OPenA1狂砸100亿美元。OpenAI/MicrosoftPartnershipOpenA1andMiCrosOfthaveapartnershipthatstartedbackin2016fanditOpenAItransitionedfromnon-profittoahybridmode1,wherean1P1ca1kcommercia1izingthePrOdUCtSdeve1opedbytheOpenAIresearch1ab.In;inthepartnershiptoenab1e,viaitsMicroso

6、ftAzureA1supercomputingteinfrastructureforthetrainingofCPTmode1s.Andin2O22rthispartershibi11iondo11arsinvestmentsbyMicrosoft.CitHubCopi1ot9Bing9OfficeyAR?.目陟OpenA1A1mode1sintegratedwithinr,MicrosoftbusinessandconsumerproductsOpenA1ProductsAvai1ab1eviaAzureEnterpriseP1atformaOpenAI/MicrosoftA1Generat

7、iveMode1sAPIs;freeandpaidAttoo1sOpenAI11MsGenerativemode1sIi1GPT-3&DA11-EMicrosoftAzureA1Supercomputer可以说,微软突破A1超算界限的雄心,已经得到了回报。而这背后体现的,是从实验室研究,到A1产业化的转变。目前,微软的办公软件帝国已经初具规模。ChatGPT版必应,可以帮我们搜索假期安排;VivaSa1es中的聊天机器人可以帮营销人员写邮件;GitHubC。PiIOt可以帮开发者续写代码;AzureOpenAI服务可以让我们访问OPenA1的大语言模型,还能访问Azure的企业级功能。Time

8、1ineofkeyMicrosoftA1breakthroughsJanuary20181MicrosoftachieveshumanparityIinreadingcomprehension.JMarch2018Microsoftreacheshumanparityinmachinetrans1ation.Ju1y2019MicrosoftandOpenAIannouncee)partnershiptoacce1eratebreakthrcMay2023MicrosoftannouncesitsfirstA1supercomputers,bui1tinCo11aboratwithandexc

9、1usive1yforOpenA1October2023MicrosoftannouncesA1breakthroimagecaptioningavai1ab1einAzunOut1ook,andPowerPointJune2023GitHub1aunchesCopi1ot,anA1pairprogrammerthattakesadvantageOpenAICodexmode1tosupportdMay2023MicrosoftexpandsaccesstoAzureServicewithmoremode1sandnewresponsib1eA1system.October2023Micros

10、oftannouncesDA11E2inAService,newDesignerappfandBin和英伟达联手其实,在去年11月,微软就曾官宣,要与NVidia联手构建世界上最强大的A1超级计算机之一,来处理训练和扩展A1所需的巨大计算负载。这台超级计算机基于微软的AZUrC云基础设施,使用了数以万计个NvidiaH1OO和A1OOTCnSorCoreGPU,及其QUantUm-2InfiniBand网络平台。NVidia在一份声明中表示,这台超级计算机可用于研究和加速DA11-E和StabIeDiffUSion等生成式A1模型。NVIDIATeamsWithMicrosofttoA1Com

11、puterTensofThousandsofNVIDIAGPUs,NVIDIAQUantUm-ZNVIDIAA1SoftwareComingtoAzure;NVIDIA,MicrosofP1atformforRapid,Cost-EffectiveA1Deve1opmentand随着AI研究人员开始使用更强大的GPU来处理更复杂的AI工作负载,他们看到了A1模型更大的潜力,这些模型可以很好地理解细微差别,从而能够同时处理许多不同的语言任务。简单来说,模型越大,你拥有的数据越多,你能训练的时间越长,模型的准确性就越好。但是这些更大的模型很快就会到达现有计算资源的边界。而微软明白,OPenA1需要

12、的超级计算机是什么样子,需要多大的规模。这显然不是说,单纯地购买一大堆GPU并将它们连接在一起之后,就可以开始协同工作的东西。微软AZUre高性能计算和人工智能产品负责人NidhiChappe11表示:我们需要让更大的模型训练更长的时间,这意味着你不仅需要拥有最大的基础设施,你还必须让它长期可靠地运行。AZUre全球基础设施总监AIiStairSPei均表示,微软必须确保它能够冷却所有这些机器和芯片。比如,在较凉爽的W旗下使用外部空气,在炎热的气候下使用高科技蒸发冷却器等。此外,由于所有的机器都是同时启动的,所以微软还不得不考虑它们和电遮的摆放位置。就像你在厨房里同时打开微波炉、烤面包机和吸尘

13、器时可能会发生的情况,只不过是数据中心的版本。大规模A1训练完成这些突破,关键在哪里?难题就是,如何构建、操作和维护数万个在高吞吐量、低延迟InfiniBand网络上互连的共置GPU。这个规模,已经远远超出了GPU和网络设备供应商测试的范围,完全是一片未知的领域。没有任何人知道,在这种规模下,硬件会不会崩。微软AZUre高性能计算和人工智能产品负责人NidhiChaPPeH解释道,在11M的训练过程中,涉及到的大规模计算通常会被划分到一个集群中的数千个GPU上。在被称为a11reduce的阶段,GPU之间会互相交换它们所做工作的信息。此时就需要通过InfiniBand网络进行加速,从而让GPU

14、在下一块计算开始之前完成。NidhiChaPPe11表示,由于这些工作跨越了数千个GPU,因此除了要确保基础设施的可靠外,还需要大量很多系统级优化才能实现最佳的性能,而这是经过许多代人的经验总结出来的。所谓系统级优化,其中就包括能够有效利用GPU和网络设备的软件。在过去的几年里,微软已经开发出了这种技术,在使训练具有几十万亿个参数的模型的能力得到增长的同时,降低了训练和在生产中提供这些模型的资源要求和时间。Waymouth指出,微软和合作伙伴也一直在逐步增加GPU集群的容量,发展InfiniBanC1网络,看看他们能在多大程度上推动保持GPU集群运行所需的数据中心基础设施,包括冷却系统、不间断

15、电源系统和备用发电机。微软A1平台公司副总裁EricBOyC1表示,这种为大型语言模型训练和下一波A1创新而优化的超算能力,已经可以在Azure云服务中直接获得。并且微软通过与OpenAI的合作,积累了大量经验,当其他合作方找来、想要同样的基础设施时,微软也可以提供。现在,微软的AZUre数据中心已经覆盖了全球60多个地区。全新虚拟机:NDH1OOv5在上面这个基础架构上,微软一直在继续改进。今天,微软就官宣了全新的可大规模扩展虚拟机,这些虚拟机集成了最新的NV1DIAH1OOTensorCoreGPU和NVIDIAQuantum-2InfiniBand网络。通过虚拟机,微软可以向客户提供基础设施,根据任何A1任务的规模进行扩展。据微软称,Azure的新NDH1OOv5虚拟机为开发者提供卓越的性能,同时调用数千个GPU0编辑:黄飞

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 工作总结

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服