学界关于"超级AI"的论争及其实现的可能路径

2018-03-07 09:46 来源:《未来与发展》 作者:王彦雨

Debate of Academic Circles on "Super AI" and Its Possible Path

 

  作者简介:王彦雨,中国科学院自然科学史研究所助理研究员,科技哲学博士,研究方向:STS,科技战略,科技史。北京 100190

  原发信息:《未来与发展》(京)2017年第20178期

  内容提要:霍金关于人工智能取代人类的观点,引发了人们关于“超级AI(超级人工智能)”的广泛争论,那么“超级AI”是否会实现、其潜在的实现路径包括哪些?针对这些问题,该文在分析历史上关于超级AI的争论的基础上,总结了学界等关于“超级AI”如何实现的各种路径。认为当前我们不应过度夸大AI的能力,但要敬畏AI的未来发展潜力,因为无论是从技术态层面还是社会态层面上讲,AI的未来发展陷入“动车困境”,超级AI并非完全是一种科学幻想。

  The idea of Stephen Hawking about AI will replace human has caused a wide debate on super AI,so will super AI come true? what are the potential paths for its realization? For answering these doubts and questions,the paper firstly analyzes the debate on super AI in a historical perspective,then sums up ideas of academic circle about how to realize super AI.The paper believes that we should not exaggerate the ability of current AI,but we should hold in awe and veneration about its future potentials,as the future development of AI will definitely fall into "high-speed rail dilemma" and super AI will not be just a kind of fantasy described in scientific fiction.

  关键词:超级AI/AI风险/递归性自我改良/存在性风险/动车困境  Super AI/risk of AI/recursive self improvement/existential risk/MU train's dilemma

  标题注释:中国科学院自然科学史研究所重点培育方向项目“科技的社会风险”,以及中国科学院青年研教项目“机器人ELSI问题研究”项目部分成果。

 

  进入21世纪,随着大数据、神经网络科学的发展,AI迎来了爆发期,在很大程度上突破了此前所面临的一系列技术难题,包括有限的计算能力、组合爆炸(combinatorial explosion)现象等。凯利(Kevin Kelly)曾指出当前AI领域的三大突破:廉价的并行运算、大数据的支撑、更好的算法。[1]当前,世界知名计算机、网络、物流公司等都已部署了自己的AI项目,如IBM公司的Watson API、亚马逊公司的Amazon Alex、苹果公司的Apple Siri等。人工智能技术的快速发展,引发了广泛争论,如人工智能对就业的影响、人工智能所引发的伦理挑战、人工智能对安全及社会公平的挑战等,其中争议较大的是“‘超级AI’对人类未来命运的影响”这一议题,即“超级AI”是否会成为现实、是否会取代或控制人类。

  所谓“超级AI”,主要是指智力、聪明程度达到或超过人类的AI,它不仅仅是在功能或结构层面模拟人类大脑,更是在能力层面达到或超过人类大脑,类似的概念如塞尔(J.R.Searle)的“强AI”(Strong AI),波斯特罗姆(Nick Bostrom)的“超级智能”(Super intelligence),以及“奇点”等。对于“超级AI”是否会实现,大体上可分为两派:一是“可能派”,即“超级AI”最终会成为一种社会现实,并取代人类,并对“超级AI”实现的可能路径进行了前瞻性分析;另一个是“不可能派”,即“超级AI”只是一种科学幻想或文学描述,不具备技术层面的可行性。自20世纪50年代起,“可能派”与“不可能派”之间的论争一直伴随着人工智能发展的各个阶段,而近一两年来,随着AlphaGo的出现和霍金关于“AI将会成为毁灭人类的恶魔”言论的不断扩散,这种争论更为激烈并成为一股社会热潮,学界也提出了通向“超级AI”的各种路径。针对这一议题,本文第一部分解读了历史上关于“超级AI”的四次争论热潮,第二部分基于AI技术的最新发展,分析了当前社会各界对超级AI的不同态度,第三章则分析、概括了学界关于超级AI实现的四种可能路径,最后,对当前的“超级AI之忧”现象进行了评论,指出:虽然当前我们不应夸大AI风险,但未来AI的发展将难逃我国学者刘益东提出的“动车困境”,无论是从技术可能性层面,还是从社会限制条件的失效层面看,超级AI的实现并非是一种纯粹的科学空想或文学式浪漫。

  1 历史上关于“超级AI”的四次争论

  人类大脑具有强大的信息处理能力及复杂的思维能力,它约有100亿~150亿个神经元,以及数以亿万计的神经联结,通过分布、并行方式传导信号形成超级强大的信息处理能力,如库兹威尔预测人类大脑的计算能力为FLOPs(也有科学家预测是FLOPs);同时,人类大脑拥有诸如情感、激情等非逻辑思维能力。面对如此复杂、强大的人脑,人工智能能否达到或超越它?实际上自AI学科产生之初起,关于“超级AI”的争论便没有停止过。总体上看,在AI发展史上,关于“超级AI”议题的讨论有以下四次高潮:

  1)人工智能学科产生前后诺伯特·维纳(Norbert Wiener)与塞缪尔(A.M.Samuel)关于“机器是否是妖魔”议题的论争。

  维纳早在20世纪40年代开创控制论之时,便担忧自动化(物理层面的自动化与思维层面的自动化)可能会导致坏的结果,认为它既可以是“善”也可以是“恶”。1959年,IBM工程师塞缪尔在与自己所设计的跳棋游戏的对弈中被击败,这一事件引发了当时人们的广泛关注,维纳对此表示深切忧虑,他认为机器智能具有类似于人的独创性,并于1960年发表《自动化的某些道德和技术的后果》一文,认为智能机器早晚有一天会超过并危害人类。但是,作为下棋程序发明者的塞缪尔则不认同这一观点,强调机器没有自己的思想,它不能输出任何未经输入的东西,下棋机所谓的“意图”或“结论”,只不过是程序设计者的意图,其结论也不过是对输入数据进行逻辑处理的结果,“机器不是妖魔,它不是用魔术操作,也没有意志,而且与维纳的说法相反,除了少见的功能失常情况外,它不能输出任何未经输入的东西”[2]。

查看余下全文
(责任编辑:李秀伟)
更多学术内容,请关注 www.cssn.cn
';?> ';?>