《硅谷AI考察报告.docx》由会员分享,可在线阅读,更多相关《硅谷AI考察报告.docx(10页珍藏版)》请在第一文库网上搜索。
1、为了近距离了解硅谷A1前沿发展最新动向和第一手信息,近期,我们专程前往硅谷学习考察,先后参观了微软、Goog1es英伟达、Meta等公司总部,与众多业内人士进行了深入交流,收获多多,感触颇深。通过交流过所了解到的很多关于算力和大模型的前沿认知,与国内目前资本市场的理解不尽相同,甚至天差地别,这些差异也许蕴含着重要的投资机遇。为此,特将此次学习考察收获第一时间与各位分享。此行中我们最大的感受是,在美国A1已经不是刚开始引发好奇与争议的新鲜事物,而是像水和电一样融入到社会生产、公司经营和百姓生活的各个方面。同时,AI技术进步的速度处于一个“寒武纪的时代,几乎每一周甚至每一天,都有让人兴奋的新技术或
2、者新产品横空出世并且迅速应用到实际场景中,因而美国的VC、PE可以说是几乎无孔不入,深入到A1各个方面去寻找投资机会。以谷歌为代表的全球科技巨头普遍认为,本次A1革命是人类未有之大变局,它是人类进步的一个空前的拐点。我们曾经指出,这一次,A1将计算机历史上最大想象空间的互联网最高流量入口、公有云最大的市场、统一万物的操作系统合三为一,即使这样我们可能仍然低估了它的意义:这或将是人类发展史上最伟大的科技革命!图1:人类进步正处于A1奇点时刻Cff3HJX8301C1osetothebeginningofanewageNotehowrateofprogressisfasterandtimetoch
3、angedecreasesovertime我们从底层技术路径与算力、行业应用以及大模型与垂直模型的发展趋势三个方面来介绍硅谷A1学习考察之行的收获:1大模型的底层技术与算力需求第一,GPT大模型的底层技术是谷歌的TranSFOrmer,其核心的意义在于给定前文后推理出下一个最有可能的字符来进行输出,一些巨头的基础大模型差别在于解码单向结构还是编解码双向结构。ChatGPT可以支持对前文32000个字符分析再推理出下一个字,这已经是一个非常庞大的数量级,且ChatGPT只允许根据前文分析推理不允许加入后文来分析推理(decoderon1y)0谷歌最先推出的大模型Bard是前后文都可以用来分析推理
4、(编解码双向结构),但后来改成与ChatGPT类似只能用前文推理的Pa1M大模型,可能最终还是这种模式更接近于我们人类语言的方式。第二,大模型本质上更像依赖A1基础设施的“炼丹,是推理并不是认知;目前视频生成受制于对基础设施的高要求仍存在一定局限性。虽ChatGPT在QA、总结等领域表现令人震惊,但实际上还是推理而不是认知,包括生成图片其实本质上也是生成文本,但是在生成视频上A1推理难度很大,因为视频的每帧都是大量图片,需要非常强大的A1基础设施去支撑。形象地说,大模型训练就像炼丹,A1基础设施越好火力越旺,但是一开始都不知道大模型到底有没有用,有一定的运气的成分在里面。第三,大模型后来者的追
5、赶难度并没有大家想象那么大,中国大模型追赶海外也会比较快。OPenA1本身并不是技术绝对领先于其他科技巨头,核心在于专注于TrarISForemer往通用人工智能方向发展,而微软、谷歌、Meta都有很多赚钱的业务不太重视大模型。OPenA1做出来之后大公司发现A1有前途,自己资源更好肯定会加紧追赶。硅谷专家预测6个月到1年以后,全球大厂大模型水平基本看齐。中国大模型追赶海外也会比较快,中国本身是一个很好的市场,现在大模型所有的技术大家都了解,无非就是资源的集中堆积。OPenAI做这么好都委身给微软,本身就是因为训练太花钱。图2:英伟达总部实拍资料来源:民生证券研究雌摄第四,海外A1巨头算力储备
6、A1Oo芯片基本在50万片以上的量级,英伟达在把算力资源向云服务方向发展,同时也在布局自身大模型。目前海外巨头平均A1OO量级估计在50万片以上,H1OO可能每家一两百张,六七月份才能大规模上线。英伟达的实际优势是软硬件结合,它的硬件上面有一层框架tensorRT,英伟达有几百人的工程设计团队做框架,比如PytorCh必须有TenSorRT才能跑,这个中间层软件一般硬件公司写不了。英伟达不止做硬件,做TensorRT还要做下层的基础设施,未来英伟达有望形成一个云品牌,同时自己也在布局大模型,可能会对整个A1生态造成极大影响。图3:英伟达A1基础设施布局资料来源:英伟达官网,民生证券研究院第五,
7、推理芯片的市场远大于训练芯片,甚至也远大于训练市场加上云端推理市场的总和,中国在边缘A1算力市场空间非常大。边缘计算应用于物联网等小设备对制程要求不高,现在市场的格局分散,而推理芯片的市场远大于训练芯片,甚至也远大于训练市场加上云端推理市场的总和,中国可以借助自己的制造业优势,把物联网这一块的制程降低,然后专用一点的这种小体量低算力的AI推理芯片推向市场,这是巨大机会。其实终端设备的体量是极大的,世界上能够提供云服务的提供商,数据中心的量跟海量的终端设备的数量比,芯片需求也还是很小的,大概就是2/8的比例。图4:英伟达A1应用于ASM1光刻机资料来源:英伟达官网,民生证券研究院在大模型的底层技
8、术与算力需求方面,我们认为:1、算力需求没有天花板。当前大模型的主要算力需求来自于文字训练,未来从文字到图像再到视频,从训练到推理,从云端到边缘端,算力需求的持续高增长是确定性非常强的。2、GPU芯片的市场格局或将发生变化,在微软等巨头的强力支持下,AMD较为建弱的软件生态有望取得长足进步,AMD将对NV1D1A形成强有力的挑战。3、芯片是中美竞争的最大鸿沟。两国达到一个数量级的算力储备既是目前亟待解决的瓶颈,也是未来确定的投资机遇。尤其是在边缘侧推理算力,既是被低估的远超训练算力的市场,也给了中国展现制造业优势的机会。2关于AI行业应用第一,大模型适用于需要一定容错率的行业,ChatGPT开
9、始做商业化付费使用P1US其实并不赚钱,核心是为了挡掉一些乱用而把成本变得过高的用户。大模型应用在要求100%准确的行业目前难度比较大,更多的是比如客服咨询、艺术创作、会议记录、写文章、数据分析等。大模型的商业化在B端已经看到成果了,比如:微软的全家桶office,减少制作时间、提升完成度、提升复购率;客服:给地产公司、医疗公司节省前端客服的成本。视频制作:一键生成vis1a.us只能生成C1em。视频等工具,就不需要找工作室了,节约人力成本。GPT4到现在只有一个半月,市场还在讨论如何应用,再过六个月能看到更多更清晰的落地。第二,微软M365产品主要在大规模交付、隐私和安全方面发力。微软现在
10、主要的目标是怎样去大规模的交付,尤其是解决一些个性化的A1特征,另外就是安全与隐私方面的准备。M365是微软现在最核心的产品。对于企业整个工作流,整个的协作平台,整个工具、存储、安全都在M365的目录下面。C。PiIot是对于现有的产品线的生产能力做大幅度的提升。M365有两套不同的运算,依托AZUre的数据中心做全球的扩张,M365内部也有自己的数据中心;M365是把。PenA1嵌入产品,不是用公用的openAIoM365在中国落地技术上有难度:1)运算资源;2)法规:数据透明度、敏感信息的管理。我们认为,在美国,A1技术的应用已经非常普遍,例如客服咨询、艺术创作、会议记录、写文章、数据分析
11、等众多行业。但需要注意的是,目前大模型的应用应该定位在“副驾驶员,需要一定的容错率而非确定性的决策工作。此外,以微软为代表的海外大模型应用目前进入中国仍存在较大难度,这些难度不仅仅是在数据安全与合规政策的要求方面,大模型与算力资源的本地化部署方面也面临诸多挑战。3大模型与垂直模型的发展趋方第一,谷歌和微软的大模型大概率闭源,而Meta可能是最重要的开源搅局者。谷歌因为搜索会被大模型颠覆是没有退路的,再开源大模型就没有优势了,而且A1未来会成为重要赚钱工具,所以大概率闭源。微软则是完全依靠OpenAI,希望GPT赋能MS365CoPiIOt等效率办公工具和Bing搜索引擎,微软大概率也不会把A1
12、开源。而Meta最重要的业务是社交,A1可以作为聊天助手,Meta的思路是做出大模型然后开源,成为大模型里面的“搅局者。比较来看,Meta的大模型1750亿参数,估计GPT4参数5000亿左右,Meta开源了超过650亿个参数的大模型,估计精确度比ChatGPT低20%左右。很多公司和学习使用Meta的开源模型做微调,在模型参数很小的基础下效果和GPT等差不多。开源的意义在于可以发动全世界上百万工程师一起参与微调。第二,大模型走向移动端是个趋势。未来大模型开源生态中大公司做大模型,小公司做微调,大模型还会被简化到在各个移动终端上,比如原来的32位浮点运算改成INT8等,提升运算速度。大语言模型
13、在开源中会有一个很好的生态圈,大语言模型就像水、电一样,在一些细分领域让开源生态做。开源社区有些聪明的人可以把模型蒸储的很小,比如把36位浮点运算改成INT4,可以把体积缩小十倍,小到可以在电脑和手机端装,未来可能会有很多有创意的应用开发出来。未来iOS或者安卓可能会内置大模型,以后所有的移动端应用跑一次给苹果一定费用。第三,大模型继续发展中参数量的增加核心要考虑Ro1处于科研角度,当然参数越多越好,但是处于商业使用的角度,每多一个参数就会增加成本,包含收集成本、训练成本。ChatGPT3.0用了175OB的参数量,而GitHUb上有一个仿GBT的模型只用了70B的参数就达到了90%GPT的效
14、果。从商业应用层面,需要找Ro1最高的参数。第四,大模型最终会通吃一些通过互联网即可获得数据的垂直行业,可能无法覆盖某些数据无法获得的垂直领域模型。现在谷歌正在做一件事让AI像人一样实时学习互联网的内容,而数据在线下无法获得的领域,可能会出现线上的大模型和本地模型做交互的形式,但这个涉及难度比较大的耦合问题。我们认为:1、中国可能是以Meta为代表的开源大模型的最大受益者。2、我们对于国内大模型追赶全球领先水平的进度应该保持信心,在已经给定了技术路线方向与开源大模型基础上去追赶,实际上节省了从头开始的试错成本。尤其是对大模型通用性要求并不高的垂直行业龙头,借助开源大模型可以迅速搭建垂直大模型,加快垂直领域的应用落地。3、大模型部署在边缘侧与移动端是一个必然的趋势,尤其在近期谷歌发布移动端大模型和ChatGPT在苹果手机上的APP正式上线之后,这一趋势逐步被市场认知,大模型是非标准化的各类AI。T终端等待已久的统一操作系统。