论文详情

学界关于“超级AI”的论争及其实现的可能路径

关注“壹学者”微信 >>
166 2  
第一作者认领本论文 邀请作者认领本论文

第一作者:王彦雨

作者简介:王彦雨,中国科学院自然科学史研究所助理研究员,科技哲学博士,研究方向:STS,科技战略,科技史。北京 100190

人大复印:《科学技术哲学》2017 年 11 期

原发期刊:《未来与发展》2017 年第 20178 期 第 22-31 页

关键词: 超级AI/ AI风险/ 递归性自我改良/ 存在性风险/ 动车困境  Super AI/ risk of AI/ recursive self improvement/ existential risk/ MU train's dilemma/

摘要:霍金关于人工智能取代人类的观点,引发了人们关于“超级AI(超级人工智能)”的广泛争论,那么“超级AI”是否会实现、其潜在的实现路径包括哪些?针对这些问题,该文在分析历史上关于超级AI的争论的基础上,总结了学界等关于“超级AI”如何实现的各种路径。认为当前我们不应过度夸大AI的能力,但要敬畏AI的未来发展潜力,因为无论是从技术态层面还是社会态层面上讲,AI的未来发展陷入“动车困境”,超级AI并非完全是一种科学幻想。

[中图分类号]C932.4

[文献标志码]A

[文章编号]1003-0166(2017)08-0022-10

进入21世纪,随着大数据、神经网络科学的发展,AI迎来了爆发期,在很大程度上突破了此前所面临的一系列技术难题,包括有限的计算能力、组合爆炸(combinatorial explosion)现象等。凯利(Kevin Kelly)曾指出当前AI领域的三大突破:廉价的并行运算、大数据的支撑、更好的算法。[1]当前,世界知名计算机、网络、物流公司等都已部署了自己的AI项目,如IBM公司的Watson API、亚马逊公司的Amazon Alex、苹果公司的Apple Siri等。人工智能技术的快速发展,引发了广泛争论,如人工智能对就业的影响、人工智能所引发的伦理挑战、人工智能对安全及社会公平的挑战等,其中争议较大的是“‘超级AI’对人类未来命运的影响”这一议题,即“超级AI”是否会成为现实、是否会取代或控制人类。

所谓“超级AI”,主要是指智力、聪明程度达到或超过人类的AI,它不仅仅是在功能或结构层面模拟人类大脑,更是在能力层面达到或超过人类大脑,类似的概念如塞尔(J.R.Searle)的“强AI”(Strong AI),波斯特罗姆(Nick Bostrom)的“超级智能”(Super intelligence),以及“奇点”等。对于“超级AI”是否会实现,大体上可分为两派:一是“可能派”,即“超级AI”最终会成为一种社会现实,并取代人类,并对“超级AI”实现的可能路径进行了前瞻性分析;另一个是“不可能派”,即“超级AI”只是一种科学幻想或文学描述,不具备技术层面的可行性。自20世纪50年代起,“可能派”与“不可能派”之间的论争一直伴随着人工智能发展的各个阶段,而近一两年来,随着AlphaGo的出现和霍金关于“AI将会成为毁灭人类的恶魔”言论的不断扩散,这种争论更为激烈并成为一股社会热潮,学界也提出了通向“超级AI”的各种路径。针对这一议题,本文第一部分解读了历史上关于“超级AI”的四次争论热潮,第二部分基于AI技术的最新发展,分析了当前社会各界对超级AI的不同态度,第三章则分析、概括了学界关于超级AI实现的四种可能路径,最后,对当前的“超级AI之忧”现象进行了评论,指出:虽然当前我们不应夸大AI风险,但未来AI的发展将难逃我国学者刘益东提出的“动车困境”,无论是从技术可能性层面,还是从社会限制条件的失效层面看,超级AI的实现并非是一种纯粹的科学空想或文学式浪漫。

1

历史上关于“超级AI”的四次争论

人类大脑具有强大的信息处理能力及复杂的思维能力,它约有100亿~150亿个神经元,以及数以亿万计的神经联结,通过分布、并行方式传导信号形成超级强大的信息处理能力,如库兹威尔预测人类大脑的计算能力为FLOPs(也有科学家预测是FLOPs);同时,人类大脑拥有诸如情感、激情等非逻辑思维能力。面对如此复杂、强大的人脑,人工智能能否达到或超越它?实际上自AI学科产生之初起,关于“超级AI”的争论便没有停止过。总体上看,在AI发展史上,关于“超级AI”议题的讨论有以下四次高潮:

1)人工智能学科产生前后诺伯特·维纳(Norbert Wiener)与塞缪尔(A.M.Samuel)关于“机器是否是妖魔”议题的论争。

维纳早在20世纪40年代开创控制论之时,便担忧自动化(物理层面的自动化与思维层面的自动化)可能会导致坏的结果,认为它既可以是“善”也可以是“恶”。1959年,IBM工程师塞缪尔在与自己所设计的跳棋游戏的对弈中被击败,这一事件引发了当时人们的广泛关注,维纳对此表示深切忧虑,他认为机器智能具有类似于人的独创性,并于1960年发表《自动化的某些道德和技术的后果》一文,认为智能机器早晚有一天会超过并危害人类。但是,作为下棋程序发明者的塞缪尔则不认同这一观点,强调机器没有自己的思想,它不能输出任何未经输入的东西,下棋机所谓的“意图”或“结论”,只不过是程序设计者的意图,其结论也不过是对输入数据进行逻辑处理的结果,“机器不是妖魔,它不是用魔术操作,也没有意志,而且与维纳的说法相反,除了少见的功能失常情况外,它不能输出任何未经输入的东西”[2]。

2)人工智能第一个黄金时代(1956-1974)“AI乐观派”与“AI悲观派”关于“是否所有的人类活动均可以进行形式化还原”议题的争论。

1956年达特茅斯会议之后,人工智能界对AI的未来发展极其乐观,如1958年西蒙(H.A.Simon)认为“在20年内,机器可以做人类可以做的任何事情”[3];1962年,前苏联科学院院士索波列夫(Sergei Sobolev)说:“人没有大脑实际是不能思维的,但是人能创造没有人而能思维的大脑。”[4]在乐观主义者看来,人脑的一切活动(如推理、情感、决策等)都能够进行逻辑化和形式化,可还原为一系列的数字或代码,如计算机科学家道格拉斯·霍夫施塔特(Douglas Hofstadter)在其所著的《哥德尔、埃舍尔和巴赫:不朽的金发辫》一书中便强调一切实在性都能转变为形式系统。然而,这种思想受到哲学界质疑,如鲁卡斯(J.R.Lucas)在其1961年发表的《心灵、机器和哥德尔》一文中写道,数学及逻辑的局限性早已在哥德尔(Kurt Godel)的“不完全性定理”中得以证明,在哥德尔看来,人类心灵无法把自己所有的数学直觉都形式化或机器化;德雷福斯(H.Dreyfus)则利用现象学对人工智能阵营进行批评,在现象学看来,经验、情感、技巧等均源自于生活与实践,在个人的生活与经验获得意义与展示,德雷福斯认为实在世界分为两种,一种是直觉的、经验的,一种是逻辑的、数学的,而前者无法通过形式规则加以描述,因为精神世界是人类在特有的社会实践中活动,人们的日常实践包括诸如技巧和常识等无法进行逻辑表达的东西。德雷福斯从三个方面对人工智能进行了系统的批判,如:并不是所有的问题都可以进行形式化,并不是所有的问题可以算法化,另外,用计算机通过算法来解决的问题,其复杂度必须在一定范围之内,而现实世界中的问题往往出现复杂性的指数爆炸现象[5]。对于特雷夫斯的批评,人工智能界进行了激烈的攻击,如西蒙将特雷夫斯的论点斥之为“废物”,当时在MIT任教的特雷夫斯受到冷遇,他后来说,AI研究者“都不敢和他一起吃午饭”[6]。

3)1980年代初约翰·塞尔的“中文屋”思想实验及所引发的“人工智能语义学批判”热潮。

1974-1980年间,人工智能进入第一个“寒冬期”,人们对于AI乐观派的“发展拥有人类智慧的人工智能”纲领产生怀疑,但如何证明1980年初,约翰·塞尔提出“中文屋”思想实验,从语义学角度解释“计算机为何无法像人脑一样工作”。塞尔指出,人工智能或计算机不过是基于一系列语法规则进行符号处理的转换机,它无法像生物大脑一样进行语义解释,人类无法制造“会思考、具有意识或意向性”的机器,虽然计算机可以处理符号,但它不能理解这些符号背后的意义,“计算机程序永不可能代替人心,其理由很简单:计算机程序只是语法的,而心智不仅仅是语法的还是语义的,就是说,人的心智不仅仅是一个形式结构,它是有内容的”。[7]塞尔的观点激怒了人工智能界,塞尔最初的文章引发了30篇反驳论文[8],在批评者看来,如果对“意义”进行最终溯源,其终极原因只能归之于宗教和神学;斯坦福大学人工智能教授诺维格(Peter Norvig)认为大脑也是由细胞等部分构成,与“中文屋”并没有什么区别,如果对人脑所拥有的“理解”“意义”“情感”进行最终的生物学溯源,其结果便是一个个的人类细胞,那么我们如何说明这些细胞具有思维、评判功能?

4)20世纪90年代中后期至2005年左右学界关于人工智能“奇点”的讨论。

随着摩尔定律不断得以证实,AI所面临的“原始计算能力”问题逐步被克服,其中一个较大成果便是1997年IBM公司的“深蓝”计算机的出现。在这种情况下,学界关于人工智能风险的讨论开始兴起,其焦点由此前的“是否所有的人类活动均可以形式化”问题,转化为奇点议题(即人工智能最终会超过人类)研究。如1990年,文奇(Vernor Vinge)在一次NASA举办的研讨会上提交了一篇文章“即将到来的技术奇点”(The Coming Technological Singularity),他写道:“当比人类智能更强的智能推进技术的进步,那么这一过程将会变得更快。事实上,没有理由怀疑这一过程将会涉及创造更聪明的实体——在一个更短的时间范围内”。2000年,尤德考斯基(Eliezer Yudkowsky)等创建了“奇点研究所”,其使命之一便是保证奇点项目实施过程中充分关注到其所内含的责任并保证让其不偏离责任轨迹,保护奇点的健全性。此外,进入21世纪之后,关于人工智能将会成为人类重大风险源泉的争论开始出现,如2000年刘益东提出“博弈智慧”(在竞争和斗争中战胜对手的智慧)这一概念来说明人工智能超过人类智慧是指在“博弈智慧”方面,他指出人们应该并不担心人工智能比人类多愁善感,真正担心的是人工智能因拥有“博弈智慧”和“赢”的意志而战胜人类。刘益东还借助“深蓝”战胜世界冠军的原理来推测和证明在“博弈智慧”方面,人工智能终将超过人类智能。[9]这种引入“博弈智慧”概念来论证人工智能行将超越人类的思路独树一帜,提供了一种极具可行性的论证方案。又如2002年,波斯特罗姆提出“存在性风险”概念,即能够极大损害人类生存能力的风险,并将人工智能视为“存在性风险”之一。2005年,牛津大学人类未来研究所(Future of Humanity Institute)成立,所长便是波斯特罗姆,这一研究机构逐渐将研究重点转变为人工智能,认为人工智能领域的实验已经进入意料之外且后果难以控制的疆域。

2

当前关于超级Al的争论

(注:平均等级分越小,意味着越像人类)

图1

罗布纳奖获奖聊天程序的平均等级分

随着神经网络技术如深度学习技术的突破,以及大数据时代的来临,人工智能展现出强大的潜能。如2014年俄罗斯团队开发的“尤金·古特曼(Eugene Goostman)”软件,被认为是首台通过“图灵测试”的计算机;IBM的Watson可以通过海量训练,对日常知识进行自主判断、决策,寻找最佳理解方式;而AlphaGo所具备的无监督学习、强化学习方式,更是让人惊呼人类已经无法对抗具备自主学习能力的AI。人工智能在最近几年所取得的突破,使得学术界、企业界、媒体、政府均开始重视超级AI及其风险问题,相较前四次争论热潮,当前关于超级AI的争论具有如下特征:首先,直面人工智能所可能引发的人类危机,而不再限于此前的“人工智能能否像人类一样思考”等哲学问题;其次,加入这一讨论阵营不再仅仅限于大学、研究所、哲学家、传媒等传统行动者,还包括企业界、政府等;再次,对人工智能风险的研究更加建制化,许多专业型的人工智能风险研究机构相继成立,如2012年成立的剑桥大学生存风险研究中心(Centre for the Study of Existential Risk)等;另外,逐渐由理论讨论转向行为实践,如工业界的“partnership AI”、斯坦福大学的“AI100”计划等。

2.1

越来越聪明的AI

当前,AI正以超乎寻常的速度发展,其“智能度”日益提升,并在许多领域人类已被机器打败。如以测试机器与人之间自由交流能力的洛布纳奖(Loebner Prize),自1991年起每年颁发给“最像人类的聊天程序”,通过分析2004年以来获奖的AI对话程序的平均等级分来看,其“聪明度”是不断攀升的,如图1所示:

另外,在多项领域,AI已经超越人类,以下棋游戏为例:(1)西洋双陆棋:1979年,汉斯·波尔莱纳的BKG西洋双陆棋程序打败了当时的世界冠军,这是计算机程序第一次在公开比赛中击败世界冠军;(2)西洋跳棋:1994年,跳棋程序“奇努克”(CHINOOK)打败了人类卫冕冠军,这是机器程序第一次在竞技游戏中赢得官方世界冠军;(3)黑白棋:1997,Logistello程序跟当时世界冠军村上健的对战结果是6盘6胜;(4)国际象棋:1997年,“深蓝”计算机打败了当时的国际象棋冠军加里·卡斯帕罗夫;(5)《危险边缘》益智问答:2010年,IBM“沃森”超级计算机在《危险边缘》游戏中击败了肯·詹宁斯和布莱德·拉特这两名擂主冠军:2016年,东京大学医学研究院利用经过海量医学论文训练的Watson,只用了10分钟便为一名60岁女性患者诊断出了很难判断的白血病类型,远超人类医生;(6)围棋:2016年,阿尔法狗打败了李世石;2017年1月,化名为“Master”的AlphaGo击败了柯洁九段等,取得60胜0负战绩,打败了当前几乎所有最著名的围棋棋手。

2.2

当前关于超级AI的乐观态度

AI能否超越人类?在人工智能发展的早期,许多AI专家持非常乐观的态度,如1970年,明斯基(Marvin Minsky)谈道:“在三到八年的时间内,我们可以拥有其智能等同于普通人的机器”[10]。但是,这种乐观态度很快便遭遇到打击,当时AI遇到了诸多困难,如有限的计算能力、组合爆炸现象、常识知识和推理等。而随着A的发展,当前人们关于“超级AI能否实现”的态度发生了改变。

如2007年,克莱恩(Bruce Klein)开展了一项在线调查,获得了888份调查记录,其问题是“你认为AI什么时候能够超越人类智能水平?”[11]从结果来看,26%的受访者认为2030-205

上一篇

下一篇

*非会员只能阅读30%的内容,您可以单篇购买,也可以订购全年电子版,或成为壹学者高级会员,畅用壹学者站内优质学术资源和服务。

近期0位学者阅读过本论文

回应区(0条)

确定

回应