《迈向第三代人工智能.docx》由会员分享,可在线阅读,更多相关《迈向第三代人工智能.docx(27页珍藏版)》请在第一文库网上搜索。
1、中恫科学杂志社SOENCECHINAPRESS中区14学:值兑内学2023处50卷ftyWI2H11302SciextiasinicaEfUrmatiU1曲纪念中国科学创刊70周年专刊评述迈向第三代人工智能张钺*,朱军,苏航消华大学人工智能研究院,北京IoOO84通信作者.E-mai1:dcszb收稿日期:2023-07-06;接受日期:2023-08-12;网络出版H期:2023-09-22国家自然科学基金重点国际合作项B(批准号:61620106010)资助摘要人工智能(artificia1inte11igence,A1)自1956年诞生以来,在60多年的发展历史中,一直存在两个相互竞争的
2、范式,即符号主义与连接主义(或称亚符号主义).二者虽然同时起步,但符号主义到20世纪80年代之前一直主导着AI的发展,而连接主义从20世纪90年代才逐步发展起来,到21世纪初进入高潮,大有替代符号主义之势.今天看来,这两种范式只是从不同的侧面模拟人类的心智(或大脑),具有各自的片面性,依靠单个范式不可能触及人类真正的智能.需要建立新的可解释和鲁棒的A1理论与方法,发展安全、可信、可靠和可扩展的A1技术.为实现这个目标,需要将这两种范式结合起来,这是发展A1的必经之路.本文将阐述这一思想,为叙述方便,我们称符号主义为第一代AI,称连接主义为第二代AI,将要发展的A1称为第三代A1关键词人工智能,
3、符号主义,连接主义,双空间模型,单空间模型,三空间模型1第一代人工智能人类的智能行为是怎么产生的,纽威尔(ANewe11),西蒙(H.A.Simon)等口包提出以下模拟人类大脑的符号模型,即物理符号系统假设.这种系统包括:(1)一组任意的符号集,一组操作符号的规则集;(2)这些操作是纯语法(syntax)的,即只涉及符号的形式不涉及语义,操作的内容包括符号的组合和重组;(3)这些语法具有系统性的语义解释,即它所指向的对象和所描述的事态.1955年麦卡锡(J.McCarthy)和明斯基(M.1.Minsky)等学者,在达特茅斯人工智能夏季研究项目(theDartmouthSummerResear
4、chProjectonArtificia1Inte11igence)的建议中,明确提出符号AI(artificia1inte11igence)的基本思路:“人类思维的很大一部分是按照推理和猜想规则对词(words)进行操作所组成的”.根据这一思路,他们提出了基于知识与经验的推理模型,因此我们又把符号AI称为知识驱动方法.符号AI的开创者最初把注意力放在研究推理(搜索)的通用方法上,如“手段-目的分析”(meanendana1ysis)、分而治之(divideandconquer)试错(tria1anderror)法等,试图通过通用的方法引用格式:张钱,朱军,苏航.迈向第三代人工智能.中国科学:
5、信息科学,2023,50:1281-1302,doi:10.1360/SSI-2023-0204ZhangB,ZhuJ,SuH.Towardthethirdgenerationofartificia1inte11igence(inChinese).SciSinInform,2023,50:1281-1302,doi:10.1360SSI-2023-0204c2023中国科学杂志社WWW解决范围广泛的现实问题.由于通用方法是一种弱方法,实际上只能解决“玩具世界”中的简单问题,如机器人摆放积木,下简单的井字棋(tic-tac-toe)等,与解决复杂现实问题相差很远.寻求通用A1的努力遭到了失败,符
6、号A1于20世纪70年代初跌入低谷,幸运的是,斯坦福大学教授费根堡姆(E.A.Feigenbaum)等及时改变了思路,认为知识,特别是特定领域的知识才是人类智能的基础,提出知识工程(know1edgeengineering)与专家系统(expertsystems)等一系列强A1方法,给符号A1带来了希望.他们开发了专家系统DENDRA1(有机化学结构分析系统,19651975)网,随后其他学者相继开发了MYCIN(血液传染病诊断和抗菌素处方,1971-1977)H,XCON(计算机硬件组合系统)等.不过早期的专家系统规模都较小,难以实用.直到1997年5月IBM的深蓝(deepb1ue)国际象
7、棋程序打败世界冠军卡斯帕诺夫(KaSParOV),符号A1才真正解决大规模复杂系统的开发问题.费根堡姆和雷蒂(R.Raddy)作为设计与构造大型人工智能系统的先驱,共同获得1994年ACM图灵奖.符号AI同样可以应用于机器学习,把“机器学习”看成是基于知识的(归纳)推理.下面以归纳逻辑编程(inductivebgicprogramming,I1P)为例说明符号A1的学习机制.在I1P中正负样本(具体示例)、背景知识和学习结果(假设)都以一阶逻辑子句(程序)形式表示.学习过程是在假设空间中寻找一个假设,这个假设应尽可能多地包含正例,尽量不包含负例,而且要与背景知识一致.一般情况下假设空间很大,学
8、习十分困难,不过有了背景知识之后,就可以极大地限制假设空间,使学习变成可行.显然,背景知识越多,学习速度越快,效果也越好.为解决不确定问题,近年来,发展了概率归纳逻辑编程方法(PrObabiIiStiCinductivebgicprogramming,PI1P)I弘基于知识的学习,由于有背景知识,可以实现小样本学习,而且也很容易推广到不同的领域,学习的鲁棒性也很强.以迁移学习(transfer1earning)的为例,可以将学习得到的模型从一种场景更新或者迁移到另一场景,实现跨领域和跨任务的推广.具体做法如下,首先,从学习训练的环境(包括训练数据与方法)出发,发现哪些(即具有某种通用性)知识可
9、以跨域或者跨任务进行迁移,哪些只是针对单个域或单个任务的特定知识,并利用通用知识帮助提升目标域或目标任务的性能.这些通用知识主要通过以下4种渠道迁移到目标域中去,即源域中可利用的实例,源域和目标域中可共享的特征,源域模型可利用的部分,源域中实体之间的特定规则.可见,知识在迁移学习中起关键的作用,因此,符号AI易于跨领域和跨任务推广.在创建符号A1中做出重大贡献的学者中,除费根堡姆和雷蒂(1994)之外,还有明斯基(1969),麦卡锡(1971),纽威尔和西蒙(1975)共6位先后获得图灵奖(括号中的数字表示获奖的年份工总之,第一代A1的成功来自于以下3个基本要素,以深蓝程序为例,第1是知识与经
10、验,“深蓝”从象棋大师己经下过的70万盘棋局和大量56个棋子的残局中,总结出下棋的规则.另外,在象棋大师与深蓝对弈的过程中,通过调试“评价函数”中的6000个参数,把大师的经验引进程序.第2是算法,深蓝采用-夕剪枝算法,有效提高搜索效率.第3是算力(计算能力),为了达到实时的要求,深蓝使用IBMRS/6000SP2,11.38GF1OPS(浮点运算/秒),每秒可检查2亿步,或3分钟运行5千万盘棋局(positions).符号AI有坚实的认知心理学基础,把符号系统作为人类高级心智活动的模型,其优势是,由于符号具有可组合性(compositiona1ity),可从简单的原子符号组合成复杂的符号串.
11、每个符号都对应着一定的语义,客观上反映了语义对象的可组合性,比如,由简单部件组合成整体等,可组合性是推理的基础,因此符号AI与人类理性智能一样具有可解释性和容易理解.符号A1也存在明显的局限性,目前已有的方法只能解决完全信息和结构化环境下的确定性问题,其中最具代表性的成果是IBM“深蓝”国际象棋程序,它只是在完全信息博弈(决策)中战胜人类,这是博弈中最简单的情况.而人类的认知行为(CognitiVebehavior),如决策等都是在信息不完全和非结构化环境下完成的,符号AI距离解决这类问题还很远.图1感知机Figure1Perceptron以自然语言形式表示(离散符号)的人类知识,计算机难以处
12、理,必须寻找计算机易于处理的表示形式,这就是知识表示问题.我们已有的知识表示方法,如产生式规则(Pn)加CtiOnru1es),逻辑程序OOgiCPrOgram)等,虽然计算机易于处理(如推理等),但都较简单,表现能力有限,难以刻画复杂和不确定的知识,推理也只限于逻辑推理等确定性的推理方法.更加复杂的知识表示与推理形式都在探讨之中,如知识图谱(know1edgegraph)111k概率推理等皿.符号A1缺乏数学基础,除数理逻辑之外,其他数学工具很难使用,这也是符号AI难以在计算机上高效执行的重要原因.基于知识驱动的强AI只能就事论事地解决特定问题,有没有广泛适用的弱方法,即通用AI,目前还是一
13、个值得探讨的问题.此外,从原始数据(包括文本、图像、语音和视频)中获取知识目前主要靠人工,效率很低,需要探索有效的自动获取方法.此外,真正的智能系统需要常识,常识如何获取、表达和推理还是一个有待解决的问题.常识的数量巨大,构造一个实用的常识库,无异于一项A1的“曼哈顿工程”,费时费力.2第二代人工智能感官信息(视觉、听觉和触觉等)是如何存储在记忆中并影响人类行为的?有两种基本观点一种观点是,这些信息以某种编码的方式表示在(记忆)神经网络中,符号A1属于这一学派.另一种观点是,感官的刺激并不存储在记忆中,而是在神经网络中建立起“刺激-响应”的连接(通道),通过这个“连接”保证智能行为的产生,这是
14、连接主义的主张,连接主义AI就是建立在这个主张之上.1958年罗森布拉特(Rosenb1att)按照连接主义的思路,建立一个人工神经网络(artificia1neura1network,ANN)的雏形感知机(perceptron)f13141感知机的灵感来自于两个方面,一是1943年麦卡洛克(MCCUnOCh)和皮特(PittS)提出的神经元数学模型一一“阈值逻辑”线路,它将神经元的输入转换成离散值,通常称为M-P模型间.二是来自于1949年赫布(D.0.Hebb)提出的Hebb学习率,即“同时发放的神经元连接在一起”16).感知机如图1所示.ifEwiriKyI1.ifE叼灯其中b为阈值,w
15、为权值.AI的创建者从一开始就关注连接主义的思路.1955年麦卡锡等在达特茅斯(DartmOUth)AI研究建议中写道“如何安排一组(假想的)神经元使之形成概念.已经获得部分的结果,但问题是需要更多的理论工作”,并把它列为会议的研讨内容之一,由感知机组成的ANN只有一个隐蔽层,过于简单.明斯基等P于1969年出版的书感知机中指出,感知机只能解决线性可分问题,而且即使增加隐层的数量,由于没有有效的学习算法,感知机也很难实用.明斯基对感知机的批评是致命的,使刚刚起步的连接主义AI跌入低谷达10多年之久.在困难的时期里,在许多学者的共同努力下,30多年来无论在神经网络模型还是学习算法上均取得重大进步
16、,逐步形成了深度学习的成熟理论与技术.其中重要的进展有,第1,梯度下降法(gradientdescent),这本来是一个古老的算法,法国数学家柯西(Cauchy)”司早在1847年就已经提出;到1983年俄国数学家尤里涅斯捷诺夫(YuriiNesterov)I19I做了改进,提出了加强版,使它更加好用.第2,反向传播(backpropagation,BP)算法,这是为ANN量身定制的,1970年由芬兰学生Seppo1innainmaa在他的硕士论文中首先提出;1986年鲁梅哈特(D.E.Rume1hart)和辛顿(GHintOn)等做了系统的分析与肯定.“梯度下降”和“BP”两个算法为ANN的学习训练注入新的动力,它们和“阈值逻辑”、“Hebb学习率”一起构