首页 >> 哲学 >> 哲人专栏
李德顺:人工智能对“人”的警示 ——从“机器人第四定律”谈起
2020年04月27日 21:13 来源:《东南学术》 作者:李德顺 字号

内容摘要:

关键词:

作者简介:

 

  作者:李德顺,中国政法大学终身教授、人文学院名誉院长

  提要: 人工智能本质上是人类智慧发展和人类自我实现的一种形式。因此当人工智能取得长足发展时,看待它与人的关系前景,不应陷入技术主义单线思维的“价值盲区”。机器人发展起来以后怎样对待人,其实是人怎样理解和对待人的问题。不应忽视人在制造机器人时自己应担当的主体权利与责。当前的主要问题,是我们应该重新理解人的本质和本性,深入反思和校正人类自己的基本价值观念,并尝试建立多元化背景下的人类价值主体思维。

  关键词 人工智能、机器人定律、人的三重存在、多元主体

  原载:《东南学术》2018年第5期

 

  机器能否“学以成人”?

  为什么选择这个题目?因为与今年世界哲学大会的主题有关。2018年8月将在北京举办世界哲学大会,这是第一次由中国举办世界哲学大会。大会规模一般都是几千人,世界各国的哲学家和哲学爱好者将参加这个大会。组织者为这个大会提出了一个主题 “学以成人”。这个主题一公布出来,立刻引起了一片哗然。因为历届世界哲学大会都是用一个中性的问题作主题。而这次的主题却不是问题,而是命题。“学以成人”本身显然是有语境和导向的。这个语境和导向等于限定了调子,让人感觉中国儒家的味道很浓,所以在国内外学者中引发了很多异议。

  例如,在北京大学召开世界哲学大会启动会开幕式后的当天下午,我参加的一个论坛争论就很激烈。小组第一位发言的是一位研究西方哲学的北大教授。他就“学以成人”这个命题发表看法,并提出了人工智能的问题,引起了大家的热烈响应和争论。“学以成人”,是不是只有学了才能成人,不学能不能成人?反过来,是不是只要通过学习就一定能成人?现在人工智能、机器人已经会“深度学习”了。阿尔法Go打败顶尖围棋手就是靠的深度学习。那么阿尔法Go可以算“成人”了吗?于是话题就引开来了:机器人、人工智能学会了自主学习、深度学习之后,将来会不会超过人类?会不会主导人类、取代人类?

  当然,大家主要关注的是会议主题的本意。这个“学”和“人”、“成人”是个什么关系?比如什么叫“学”?一个人成人的过程,是不是都要靠学才能实现?人成为人有哪些学法?是不是都要靠看书,都要靠上学听课才叫学?有没有实际上的“不学之学”?孩子生下来之后,什么时候开始学习,学习什么,怎样学,才能成为人?……。显然有两大问题:一是怎么理解“学”?二是更重要的,“成人”的涵义和标志何在?从机器人、人工智能发展引发的人的命运问题;最终还是要从怎样理解“人”入手,才能做出清晰的判断。

  到会的专家学者经过热烈讨论,多数觉得“学以成人”这个主题并不准确。真正的问题是要在新的历史高度上重新理解“人”。因此“学以成人”的表述虽然有毛病,却也歪打正着,刚好从反面与现代时代的很多现象相吻合,能够引出应有的主题来。实际上,在当今这个时代,科学技术、生活实践、世界政治经济、文化发展的一个重大挑战,就是需要重新理解人,包括人的生命活动和成长条件与过程,也包括人的价值和价值观念体系。因为我一直对“人”的问题比较关注,所以今天专门就这个问题来和大家交流。

  潜在的“价值盲区”

  人工智能和人的关系问题,其实不是一个新问题。多少年前就有人预言过:机器人越来越聪明、越来越能干,而且它不吃饭不喝水,不会疲劳生病,也不会弄虚作假,人不能干的他也能干。因此机器人将是地球上具有绝对优势的人。那么,如果机器人也能自我复制、自己繁殖,将来是否就会淘汰人类呢?这个疑虑一发出,就震撼了许多人。

  但我认为,在这种思考和顾虑中,有一个“技术主义直线思维”的毛病。它的最大特点是迷信技术,却忽视技术本身的价值前提。技术,原本就是一种价值化的实践。它来自人类把自己的经验、知识和科学成果,按照符合人的需要和能力的尺度加以组合应用。但技术主义的直线思维却忘记了技术的价值前提,以为技术的自我发展可以不受价值观念的约束,或者单凭既有的理性知识和经验,就可以自发地形成价值观念。因此以为,人工智能的价值取向,可以完全脱离人类关注和思考的范围。这就是我说的“价值盲区”。

  当然,并非所有技术思考都会陷入这个盲区。曾有一位科学家,他是“进化论斗士”老赫胥黎的孙子小赫胥黎,专门写过一本科幻小说(是“文革”时期内部出版的参考读物。由于时间久远,小说的题目我已不记得了)。内容是说,机器人发展起来以后,已经取代了人类,赶走了人类,自己组成社会。它们按照阿尔法人、贝塔人、伽马人三个等级来组织管理。阿尔法人是统治者,贝塔人和伽马人是劳动者,相当于白领和蓝领。这些人都可以在机器上成批的复制出来。但小说写到,其中一个统治阶层的阿尔法青年人,偶然遇到了一个残留的自然人,而且是个美女。阿尔法人智商很高,他跟这个美女接触以后,却怅然若失。因为他感觉到,自然人有机器人所不具备的各种各样说不清楚的境界和魅力。机器人,即使是阿尔法人,也没法跟人相比。这个故事的结尾,好像是一个悲剧。因为这个机器人最终无法与自然人相结合。谁能想象,一个机器人和一个自然人结婚,能否生出小机器人或自然人来?如果不能,那么所谓机器人的自我复制、自我繁殖,无非是一个机械过程,决不会高于人类的生命孕育;如果能够,那么机器人将与人无实质差别,为什么还会反过来威胁人类?可见在高度发达的人工智能与人的关系这个问题上,离开社会文化,只讲知识、智力、技术,不讲价值和价值观,就会陷入一种不可持续的死结。

  假如机器人也有价值观念,那么情况会是怎样的呢?这个问题也有人早就想过了。美国著名科学家和科普作家阿西莫夫,曾写过关于机器人的系列科幻小说,如《我,机器人》等。在小说里,他提出了著名的“机器人三定律”。他指出,人类制造机器人的时候,一定要在程序里设定基本的价值观界限或“底线”,即三条“定律”:第一条“机器人必须保护人类,不得伤害人类”;第二条“机器人必须执行人的指令,但不得违背第一条”;第三条“机器人必须保护自己,但不得违背前两条”。就是说,人造机器人的时候,不是光给机器人一套知识、技术和本领,一定还要给它设定一套价值取向和判断的标准,以保持其行为的界限和可控范围,教给它遵守“怎样做好,怎样做不好”的标准和尺度。

  阿西莫夫不仅提出了三定律,他还进一步用逻辑思维设想了很多情境,考验在实践中,三条定律之间是否可能、或在何种情况下会发生冲突?如果互相冲突了,情况会是怎样的?《我,机器人》一书设计了若干特定的场景,使三条定律发生冲突。比如:在某一星球上,让机器人到一个对机器人有致命伤害性的地方去取回一个东西。机器人得到指令出发了,在接近目标的时候,第三定律“机器人要保护自己”起了作用,它就折回来;靠近出发点的时候,“要执行人的指令”这个第二定律的指令又增强了,然后它又再出发。于是这个机器人不停地跑过去,跑回来,最终不知怎么办了。再如:机器人可能掌握了某个自然人犯罪的线索。当审查人员要求机器人提供证据时,机器人又陷入混乱:它要执行人的指令,就要如实提供证据;但这又会对该人形成伤害,违背第二定律。机器人计算不出答案,结果陷入了爆炸自毁的边缘状态,人只好关闭了它的电源。

  阿西莫夫的书是上世纪四五十年代出版的。它可以表明,对于人工智能的价值观念问题,已经纳入人类思考的视野,不应再是一个盲区。阿西莫夫尽其想象力和逻辑推理告诉我们,在设计人工智能的时候,人类既要给它提供价值底线,也不能忽视“底线”自身的局限性。我们在思考人工智能和人类的关系时,不要以为知识、技术和能力是不含有价值观念、不需要有价值取向、不存在价值判断的。相反,在发展人工智能的实践中,这个问题一直起着平衡作用。有个现实的例子:据说阿尔法Go跟人下棋的时候,不管是赢李世石还是柯洁,它都只赢一个半个子目,不多赢,显然并不追求棋盘上肆意杀戮的快意,而是“见好就收”,留有余地。可见设计阿尔法Go的专家们,还是考虑了人的情感分寸和界限的。

  我看了阿西莫夫的书以后发现,事实上这里还预示着“第四定律”,即:“机器人自己不能决定时,要向人请示”。就是说,当前面三个定律相互冲突了,就得让人自己来回答“到底怎样”。解铃还须系铃人,这个球还是要踢回给人。比如第一个故事里,人可以说“不怕牺牲!”让机器人完成任务。如果它因此毁掉了,还可以再造一个;或者,人也可以这样选择:既然那么危险,就不要去了,机器人很宝贵!这两者都是人自己的想法,是人类历史文化积累的产物。机器人一般不会在程序和规则之外选择。它能够按照程序执行,但不一定理解程序。过去新闻报道里就有过这样的事:美国某人出去旅游一个月,家里没有用电。回来后,系统给他发了一个“请缴某月电费0元”的通知。按人类的通常理解,0元就不用缴了。过些日子,电脑又给他第二个通知:请交电费0元;第三次,则是“限24小时内缴电费0元,否则将切断你家供电”。这个人只好写了一张0元的支票寄过去。这就是有历史文化的人和单纯数字化的机器之间的一种深层差别。

  无论机器人、人工智能怎样发展,都不能忘记它们终究是人工的造物,是人类自我实现的形式之一。如果说,在机器人具备了超人的智力和体力的情况下,它可以做任何自然人所做不到的事。那么它执行什么样的价值原则,却仍然是要由人来设定的。而人给机器人设定怎样的价值体系,实际来自人对人类自己价值体系的理解和贯彻。所以说,“人工智能威胁论”最多具有警示的意义。在“警示”之外,它就可能是个假问题。因为实际上,并不是机器会来威胁人,只能是一些人在有意或无意地威胁人。就像任何一项科学发现、技术发明,都会有不同的人朝不同的方向利用它。用它干好事为人类谋福利,还是用它来祸害人类以谋私利,并不是科学技术本身“注定如此,一成不变”的选择和走向。

  总之,人类把自己的聪明才智转移给某种机器,并通过机器加以放大,因此在某些专项的智能和体能上,机器人可以而且应该远远超过人,这已经没有多少悬念了。而迫在眉睫的现实问题,是人类怎样清醒地把握和贯彻自己应有的价值观念。在人类多元的价值观念体系中,制造和掌控机器人的人,怎样选择和守护应有的价值观念?

作者简介

姓名:李德顺 工作单位:

转载请注明来源:中国社会科学网 (责编:李秀伟)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们