当前位置:首页 > 大众日报 > 思想纵横

面对人工智能,更需要担心的是什么?

2016-03-16 作者: 邓线平 来源: 大众日报
  □邓线平

  人工智能AlphaGo连续战胜李世石后,在世界范围内引起大讨论,很多人担心“机器超越并最终控制人类”的科幻剧情,可能在未来真实上演。更加有趣的是,一些人揣测AlphaGo故意输掉一盘棋,就是为了打消人类顾虑,让人类掉以轻心,以实现人工智能最终统治人类的野心。
  人类最终被机器人统治?无论乐观还是悲观,技术改变人类社会都已成为一个事实
  一般认为,电脑要在围棋比赛中胜出,比其他游戏困难得多。因为围棋盘势更为宽广,以电脑来计算相当困难,使用传统人工智能方法的程式几乎不可能获胜。相较于先前的围棋程式,AlphaGo表现显著提升。在与Crazy Stone和Zen等其他围棋程式的500局比赛中,AlphaGo仅输一局。2015年10月,AlphaGo以5比0击败欧洲围棋冠军华裔法籍棋士樊麾二段,这是电脑围棋程式首次在全尺寸棋盘上公平击败职业围棋棋手。短短半年后,AlphaGo又挑战排名世界前三的人类选手李世石九段并获胜,成功引起世界范围内关于人工智能的大讨论。
  有人仔细地分析了人机对弈的过程,内心感到非常震撼,不仅从中看到了AlphaGo的精妙计算能力,而且还观察到它的“个性”:“它有着超凡的大局观,洞悉整个棋盘上的所有薄弱之处。对自己的弱点,它两度自补,显得很‘猥琐’。但对李世石看似无懈可击的地盘则毫不犹豫地出击,近乎一剑封喉。它在‘脱先’时的那种气定神闲,宛如成竹在胸的世外高人,带给对手凛然的压迫感。无论接下来胜负如何,有一点已经可以肯定,阿尔法狗已经是无可争议的顶尖围棋高手,没有任何人敢于小觑它的实力。至于未来,则必定属于它。”著名物理学家和宇宙学家霍金也号召大家警惕人工智能可能带来的威胁,特斯拉创始人埃隆·马斯克甚至因担心未来机器将取代人类而抑郁。
  但也存在另一种声音,“脸书”创始人扎克伯格就认为这些担忧毫无依据。在被问及如何看待机器可能在很多方面比人类大脑更聪明时,扎克伯格曾作出如下回应:“人类制造机器就是为了让机器在某些方面强于人类,但是机器在某些方面超越人类不意味着机器有能力学习其他方面的能力,或者将不同的信息联系起来而做超越人类的事情,而这一点非常重要”。当被问道“难道科幻小说里那种事情(机器超越人类)真的就不可能发生么?我们难道一点都不需要担心人工智能的安全性么?”时,扎克伯格解释道:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管怎么样,我们要先造出飞机,再担心飞机的安全性。我们过度担忧人工智能,将阻碍人工智能实际的进步。我们要认识到无人驾驶汽车可能可以帮助我们减少车祸的发生,而且人工智能系统甚至能够帮我们诊断疾病,所以因为担心安全性而阻碍人工智能的进步可能是最糟糕的选择,因为我们本来可以利用人工智能让世界更美好。”
  无论乐观还是悲观,人工智能终将大大改变人类社会。实际上,像所有技术一样,它已经大大改变了人类社会。
  人工智能分为弱人工智能和强人工智能。弱人工智能(Artificial Narrow Intelligence,简称ANI)是指仅在单个领域比较牛的人工智能程序。比如这一次战胜李世石的谷歌AlphaGo,便是弱人工智能的典型代表。其特征便是虽然很擅长下围棋,却无法与你玩一把飞行棋,也难怪有评论称其水平只是人工智能界的“小学生”。与之相类似的还有我们较为熟悉的苹果Siri,以及美联社、腾讯、新华社等尝试的“机器人记者”。这些写稿机器人虽然已经可以自动生产财报报道的内容,但是对于报道“看了一场体育比赛之后,用虽败犹荣来描述胜负”,却是它们完成不了的。
  强人工智能(Artificial General Intelligence,简称AGI)则是能够达到人类级别的人工智能程序。不同于弱人工智能,强人工智能可以像人类一样应对不同层面的问题,而不仅仅只是下下围棋,写写财报报道。不仅如此,它还具有自我学习、理解复杂理念等多种能力。也正因此,强人工智能程序的开发比弱人工智能要困难很多。
  有人在此基础上,进一步提出了超人工智能(Artificial Super Intelligence,简称ASI)。其中,牛津大学哲学系教授、人工智能思想家尼克·博斯特罗姆是最知名的,他把“超人工智能”定义为:它们“在几乎所有领域都比最聪明的人类大脑还聪明很多,包括科学创新、通识和社交技能”。
  对人工智能的讨论,不能“就技术论技术”,而应站在“技术哲学”的高度去分析
  一个问题是,目前关于人工智能的讨论,都只是就技术论技术,而并没有深入了解技术背后的内在规律,因此也就难以真正探究技术的未来。技术未来会怎样?这需要哲学上的回答。
  人工智能到底能不能与人和谐共处?回答这个问题的关键在于,人类自身是不是足够强大。如果人类社会还没有足够强大,还不能承受人工智能所带来的冲击,这时候就产生了强大的人工智能,那么就有可能产生可怕的后果。其实,不止人工智能,任何一种技术都是如此。
  对人工智能是否会战胜人类的不同看法,对应着技术哲学上两种争论已久的观点,即技术实体论和技术工具论。认为技术能战胜人类的属技术实体论,著名哲学家海德格尔即持此观点。他认为,技术构成一种新的文化体系,这种新的文化体系将整个社会世界重新构造成一种控制的对象;这个体系具有一种扩张性活力的特点,它将最终侵入每一块前技术的飞地和塑造社会生活的整体。技术工具论则认为,技术是用来服务于使用者目的的“工具”。人们想让它干什么就干什么,它不可能超越人类,更不可能去控制人类。
  技术工具论只看到了问题的一面。任何一项技术,作为工具在提升人类能力的同时,也改变着人类,不但改变了操作工具的人,而且通过他改变了整个社会结构。一个人可能因为发明一项技术,或者利用一项技术,而改变自己在社会结构中的地位,继而更深刻地改变社会。技术实体论则走向了另一个极端,即将人类自主性完全交给技术,而忽视了人类理性的作用。
  实际上,任何一项技术,包括人工智能技术,其作用于人类,都是一步一步慢慢实现的。新技术首先作用于某一领域,某一个人,或者某一群人,继而影响整个社会。总体来看,在此过程中,人类理性发挥作用,将不好的作用效果屏蔽掉,将好的作用效果发挥出来。现有的技术发展历程就是如此。核技术可以毁灭人类,也可以用来发电、造福人类。关键是在技术发展、推广的过程中,一系列的社会建构在起作用,规范着技术使其朝着正确的道路前进。这可看作是技术实体论与技术工具论外的第三种观点,即技术逐步改变人类,但同时受人类理性控制,最终将人类带到一个更能发挥主体性同时又更规范的世界。技术可能在某一方面胜过人类,但要从整体上统治人类是不可能的。因为技术本身要遵守这些规范。
  人工智能也属这样一种技术。虽然它在逻辑分析推算方面,能力会远超人类,但它的能力完全发挥需要一步步实现。在这个过程中,人工智能与人的差距会始终存在,这种差距不是能力上的差距,而是生存上的差距。人工智能是一种“目的性存在”,它为完成人类的某种目的而存在。而人类本身是一种交往性存在,由交往而形成社会,形成命运共同体。机器人在某一时间点只是一种工具,而人可以在现实中根据实际情况进行博弈。通过交往,人类社会编织了严密的制度、道德网络。这些网络是为人类共同体服务的,而人工智能只是这个网络中很小的一环。人工智能也在改变人类,一方面,改变社会原有的结构;另一方面,人类需要设计出更多的规范,使人工智能更好地为人服务,而不是去破坏人的生存境况。
  以围棋为例,虽然AlphaGo能战胜李世石,能战胜绝大多数人类,甚至整个人类智力汇总起来也战胜不了它,但它不可能控制人类。它的能力只在围棋方面,人类所形成的社会网络非常严密,无所不在,围棋只是其中的一个游戏。AlphaGo的算法厉害,但开电门需要人类;现在的AlphaGo,甚至落子都需要人类代替,更不用说与人直接交流,参与社会活动等。即使未来人工智能可以参与部分社会活动,但它一定是在某种人类目的性基础上参与社会活动。它要突破整个社会网络,完全改变人类,甚至统治人类,是不可能做到的。除非人类丧失了基本理性。
  我们更应该担心的是:人类可能利用人工智能这一高新科技,自己打败自己
  未来可能每个领域都有机器人工作,并且,每个领域的机器人都会超越人类。是不是这些机器人联合起来就可以统治人类呢?答案也是不可能的。当初设计这些机器人的时候,只是要求它们完成特定的工作,它们不可能联合起来,或者说,联合起来不是它们的主要工作和任务。即使是它们的工作和任务,也是人类给予它们的工作和任务,也是为了完成特定的人类社会目的,为人类服务的。一方面,人类社会可以控制这些机器人;另一方面,它们工作的目的和任务不可能超越维护人类生存的目标。
  但是,这一切都要建立在人类社会足够强大、人类理性能够充分发挥作用上。人类是不是足够强大,体现在社会网络是否足够完善。完善的社会网络,可以让人类联结成一个命运共同体。它的内涵体现在两方面:一方面,不能把人当作奴役的对象,人始终是技术服务的对象;另一方面,技术的局部运用,当它产生负面作用时,可以及时被断开。完善的社会网络,可以在技术行使破坏功能时,利用人类网络,将机器人制服。人工智能再发达,它始终处于社会的一环,而不是统治整个社会系统。它再发达,也只是为整个社会所用,继而为个体所用。
  反之,不完善的社会网络则可能产生机器人统治人类的空间,这是人工智能发展真正可怕的地方。不完善的社会网络,意味着社会还没准备好迎接新技术。其实,任何一种技术应用都是如此。现实社会中,技术对人的“统治”已无所不在,如很多人对手机、互联网的沉迷等。在社会网络不完善的情况下,人工智能的破坏作用将大大增加,这应该是人类真正需要担心的。但这种情况发生,显然不是人工智能战胜人类,而是人类自己打败自己。
  人类是不是足够强大,还体现在有没有针对特定的技术进行相关防护。在开发人工智能之前,应进行相关的制度设计,避免人工智能被少部分人利用。现在的人工智能还只是完成某一项工作,随着技术的进步,人工智能越来越像人本身,这时,对它的防护就显得更加重要,也更加困难。因为它将更深度参与人类社会的构建,并像人一样活动。它将与人形成越来越深入的联系。因此,随着技术进步,人工智能向前的每一步,都需要进行深刻的探讨。在此之前,应防止技术被贸然应用——不但人工智能如此,一切高新技术都是如此。
(作者单位:广东省社会科学院)