《摩尔定律失效后芯片的出路之类脑芯片.docx》由会员分享,可在线阅读,更多相关《摩尔定律失效后芯片的出路之类脑芯片.docx(5页珍藏版)》请在第一文库网上搜索。
1、摩尔定律失效后芯片的出路之类脑芯片1.目前计算领域硬件和软件的双重困境我们先看一下目前计算领域的困难。从硬件上说,因为单个晶体管体积过小,量子效应变得越来越严重。电子不再按照我们希望的规律流动,于是为了进一步约束量子效应,单个晶体管的结构就从平面走向立体,又从立体走向复杂立体。而要把几百亿个这样复杂结构的晶体管组合在一起,制造工艺就比从前复杂太多了。今天5 nm工艺的芯片,制造步骤是10年前的3 - 4倍。硬件上的约束直接导致单个晶体管的成本从过去几十年的每1 - 2年下降一半,变成了每年小幅增加。于是,今后的顶级芯片会一代比一代贵。别看每一代只贵20%,但按照这个增速,2042年的顶级旗舰C
2、PU就不再是5000元了,而是19万元。而人们对计算的需求将一直持续下去,那么50年、100年后的成本如何解决呢?以上是硬件部分遇到的挑战,而软件上的挑战其实也不小。虽然在大约10年前,出现了深度学习、神经网络这样的新算法,让机器在分辨图片、理解语义、自动翻译、下棋游戏等方面的表现大幅提高。但这些提高是不均衡的。比如,当前机器在棋类游戏上的水平已经远远超过了人类,但在自动驾驶、理解语义上的表现,只能说接近人类,远比不上这方面的人类专家。怎么才能让计算机在这些薄弱环节上的表现也超过人类专家呢?现在看来,改进算法这条路好像突破空间不大。因为就在不久之前,这条路刚刚出现过重大突破。于是今天,不论技术
3、专家还是资本巨头都在另外一条路,也就是在堆设备、堆算力上下功夫。有钱当然可以这么堆下去,但软件上遇到的问题是:想让性能提升10倍,通过堆算力这条路付出的成本可不是增加10倍,而是可能需要增加10亿倍。让机器拥有当前性能所付出的成本,已经是数以亿计的美元了,如果再增加10亿倍,那就完全超出了人们的承载能力。而且,更硬的限制来自于能源消耗。实际上,利用当前算法把软件性能提升10倍,那个能耗可能是地球上几十年来能源消耗的总和。且不说有没有这么多的能量,就算有,消耗过程中附带的杂质排放、碳排放,也足够让生存环境彻底朋溃。2.出路:跳出冯诺依曼结构在硬件和软件都卡住的时候,出路在哪呢?这就需要我们跳出当
4、前芯片的结构,也就是从上世纪40年代后期就一直延续至今的冯诺依曼结构。对于这个结构,如果你上计算机课或者查百科,得到的结果是这样的:首先,会告诉你计算机分为运算器、控制器、存储器、输入输出设备;接着,定性的给你介绍这几个模块都是做什么的。但如果我也这么说,你就很难理解从这样的结构里跳出来有什么好处。所以,我要根据类脑芯片的特点,重新说一下冯诺依曼结构。冯诺依曼结构依托于天才数学家图灵的证明,最后被冯诺依曼在现实中实现了。当年,图灵发明了一种操作,可以模拟一切逻辑运算。这种操作由控制器、读写头和一条无限长的纸带组成的机器来完成。纸带用来储存信息;读写头可以读取纸带上的信息,还可以把运算结果写在纸
5、带上;控制器则用来左右移动纸带或者擦除当前读写头上的数据。于是,只要左右拉动纸带的动作和读取纸带信息的动作配合得足够合理,中间过程不需要人来插手,就能在有限次操作后得到逻辑运算的数值结果。此后,一些计算机科学家的工作就在于,思考要完成加法运算,应该如何安排拉动纸带和保存中间结果的动作顺序呢?甚至,要完成双曲余切函数的计算,要如何安排动作顺序呢?这些计算机科学家,逐渐演化成了今天的算法工程师和程序员。而另外一批计算机科学家的工作,是研究如何把纸带加读写头的小单元缩小再缩小,让200亿台这样的设备同时工作,这样效率不就高得多了吗?这些计算机科学家,逐渐演化成了今天芯片设计制造的科学家与工程师。人类
6、在70年前遇到的计算任务,用笔和纸顶多配上一些计算尺就能完成。于是当冯诺依曼结构出现后,随着算法的丰富、计算模块的缩小,70年时间里的前60年,都维持了稳定高速的发展。但后10年,速度却降下来了,因为软件和硬件上都遇到了我一开始提到的瓶颈。在软件上的问题,可以叫作瓶颈,因为人们或许还能发现一些再把运算性能提升几千上万倍的方法。但硬件上的问题,无论如何都不能叫瓶颈了,而是撞上了天花板一一芯片工艺不能无限缩小下去,1 nm往下要怎么做,没人说得清,而现在,我们已经走了 3 nmo在众多解决方法中,类脑芯片是最有潜力的。这个思想早在1990年就出现了,突破不在硬件,也不在软件,而在基础计算结构的大换
7、血。也就是说,不再使用冯诺依曼结构了,于是冯诺依曼结构注定会遇到的软硬件天花板就不存在了。类脑芯片的灵感源自人脑。我们知道,人脑肯定在做大量运算,而且运算复杂度远超人造计算设备,运算性能在很多方面也大幅超越人造计算设备。所以,如果能从人脑上借鉴一些新结构到人造计算设备中,也许可以有所突破。这方面的研究分为两派:一派认为,要做新的计算结构,首先要了解人脑的工作原理。这一派,到今天都还困在泥潭里。因为人类研究了一百多年,至今对人脑的基本原理还是两眼一抹黑。但这一派坚信这条路是对的,因为冯诺依曼结构当初就是这样自上而下出现的一一先由图灵从数学上证明了操作的正确性,再由冯诺依曼从实施上找到办法。然后计
8、算机行业就像核弹爆炸一样爆发了 70年。而另外一派认为,不必对原理了解透彻。先用当前已有的生物学知识,比照人脑的基础单元做出一些结构用起来,看能做什么再说。这一派也是有先例的。比如,莱特兄弟第一次飞上天之后20多年,冯卡门的空气动力学理论才完整解释了飞机能飞起来的原理。再比如,一战、二战里用得火热的无线电,其实是靠地球大气层边缘的电离层多次反射电磁波,才能让几千公里外的人接收到信息。这个原理是在无线电被发明出来70多年后,才被解释清楚的。但之前,人们没有因为不透彻了解原理而拒绝使用,都是先用着再说。所以,第二派依照神经元的基础结构,给类脑芯片做了一些数学描述,也搭建了模型,并且做出了不少可以运
9、行的芯片。于是,今天第二派暂时大胜第一派。相关的数学描述,在一些和AI芯片相关的书里都可以查到,我就不具体说了。大致描述是这样的:芯片的一个基础单元就类似于人脑中的一个神经元,它是一个小圆球。有几根长长的线和远处的神经元相连。在脑科学中,这个长长的连线叫作“轴突”。此外,小圆球表面还有一些稀疏的毛毛。它们不一定都有用,但当一些条件满足的时候,其中几根毛毛会和其他小球伸过来的连线握上手。这些毛毛在脑科学中叫作“树突”。而握手也不是传统电路里导线连通的概念,而是类似于脑科学中“突触”的概念。也就是说,伸过来的轴突和本地的树突并没有实际握上手,而是存在一个间隙,大约几微米。在人脑里,信号在单个神经元
10、中的传递,是通过放电的形式进行的;但跨越多个神经元的信号传输,就要靠突触上分泌的化学物质,也就是神经递质。只有神经递质的浓度足够高的时候,才会导致握手的另一端的神经元被高度激活,开始放电;当神经递质的浓度不足够高的时候,就不激活后续的神经元。之所以利用神经递质,而不用电信号直接连接,是因为电信号在生物组织中传输的损耗太大了。如果距离超过几十厘米,电信号就衰减到几乎没有了。这是生物演化中出现的特征。而放在类脑芯片的数学描述里,“突触”要换成数学中“权重”的概念,“神经元是否能被激活”要换成数学中“阈值”的概念,而神经元被数学中的激活函数描述。3.类脑芯片和传统结构的差异原理部分先到这里。可能有点
11、儿烧脑,但不理解也没关系,我们只要知道它是模仿人类大脑搭建的就可以了。我们的问题是,这些新模型和传统的冯诺依曼结构有什么不同呢?首先是,存算一体结构。这是一个什么东西呢?在这里,我只简单的把它形容成一个和冯诺依曼结构平行的另外的结构。它的读取和存储计算是在同一个单元中同时完成的,这是最基本的结构上的改变。至于具体是怎么回事,我们放在明天的内容里单独讲。其次是,单元与单元间的连接变了。一个输入是否会让多个单元产生动作,很像神经元是否会被激活。当神经递质不足够浓,没有足够强的放电时,那个神经元就不活跃,或者说没有达到阈值。这样的特性被称为“事件驱动”。今天,这样的芯片已经应用在动态视觉分析上了。比
12、如,在自动驾驶的过程中,有些判断并不需要全景图的数据,只要知道当前有哪些物体正在运动就可以了。传统的芯片会分析整个视频画面,而类脑芯片中,只有那些活动的像素才会激活处理过程。只分析这部分活动的内容,计算量自然大大降低,于是芯片功耗大大降低。这个特性,有点像青蛙的视觉处理过程,它们也只是对动态物体更敏感。功耗大约会降低多少呢?我们可以参考当年李世石大战Alpha Go。那一年,他们的胜负在伯仲之间,但李世石的大脑功耗大约是20瓦,Alpha Go大约是100万瓦。尽管今天Alpha Go实现同样的性能,功耗已经降低到几百瓦了,看起来和人脑的20瓦相差不多。但实际上,人脑那20瓦功耗并不只是在处理围棋的走子策略,还在处理视觉、听觉、平衡、维持情绪的平稳等比围棋复杂得多的任务。所以,人脑依然比传统计算机高效得多。类脑芯片就有可能在很多类似的计算中,大幅减少功耗和计算量。类脑芯片是一种新结构,一旦普及,就将造就另外一次“计算机时代”。