首页 >> 哲学 >> 科学技术哲学
作为人工智能自我知识匹配模型的阐释性感觉理论
2020年01月10日 11:00 来源:《自然辩证法研究》 作者:王球 字号

内容摘要:

关键词:

作者简介:

Interpretive-Sensory Theory as a Matching Model for Self-Knowledge of Artificial Intelligence

  作者简介:王球(1983- ),浙江淳安人,哲学博士,上海交通大学科学史与科学文化研究院副教授,主要研究方向:认知科学哲学,心智哲学,知识论。上海 200240

  原发信息:《自然辩证法研究》第20194期

  内容提要:人工智能的兴起,激发了哲学家将人工智能与人类心智进行全方位的比较,但是鲜有学者思考过,一个人工智能系统,是否能够“认识它自己”。诊断这项阙漏的根源,为此提供正当性理由便是必要的。基于当下人工智能的发展水平和技术前景,表明人工智能原则上可以拥有关于自身信念、欲望和意图之类的命题态度的自我知识。从既有的关于人类自我知识的主流理论中,筛选出一个与人工智能相匹配的理论模型。该模型类似于卡鲁瑟斯的阐释性感觉理论,它也体现了卡萨姆所说的“实质性自我知识”的优势。

  关键词:人工智能/自我知识/阐释性感觉理论

  标题注释:国家社科基金青年项目“‘心灵-行动’哲学视野下的进化心理学研究”(13CZX026),上海市浦江人才计划“基于新达尔文主义的自我知识理论研究”(18PJC078),上海交通大学文理交叉项目“认知科学视野下的技术奇点研究”(15JCZY07)。

 

  如今人工智能(AI)不仅成了科技创新的制高点、经济转型的驱动力和大国博弈的竞技场,它更是建构了我们的时代精神,自然也成了当前哲学研究的热点议题。本文考察的是,AI究竟有没有自我知识?随着计算机智能化程度越来越惊世骇俗,尽管研究者对于AI原则上能否拥有知觉、意识、情感、语义表征、自由意志等人类意义上的心理能力有过许多讨论,却鲜见有人思考AI是否拥有自我知识。无论是古希腊箴言“认识你自己”,还是中国老子说的“自知者明”,自我知识有着重要的认知价值和生存论价值。说起我们是怎样认识到自己的内心世界,就会牵扯出复杂的哲学问题。例如,你如何识别当下的感觉与思想?如何确认自己的信念与愿望?毫无疑问,我们的确知道自身某些心理状态,就像“我觉得牙疼”,“我想喝水”,“我相信今天是周六”之类的判断,通常就在表达知识。自我知识是独特的,自我似乎无需观察就能直接知道,并且自我对自身心理状态的识别,似乎相当可靠。有鉴于此,本文追问三个问题:第一,我们能否恰当地说,AI在某种意义上拥有自我知识?第二,当前有哪些关于人类的自我知识理论?哪个理论能为第一个问题的回答做参考?第三,如果AI有自我知识,那会是何种类型的自我知识?本文分三个部分,分别阐述这些问题。

  一、问题的正当性理由

  面对AI这个异军突起的“他者”时,AI威胁论一时尘嚣甚上。然而多数AI工程师、认知科学家和心智哲学家相信,当下亟待解决的问题,要么是研究人类各项心理能力及其结构关联,以求为任何一种智能体所必需的知识表征系统提供有章可循的理论基础和工程学思路,要么就得在提高计算机硬件的计算速度和革新算法上下功夫。这种态度有两个前提预设;第一,从工程学上讲,我们目前正处于且将长期处于弱AI阶段,专家系统、人脸识别、自动驾驶、自然语言处理等应用领域的性能提升,很长时间内仍然是AI研究的重头戏;第二,多数有科学素养的学者乐意接受“人是机器”的断言,人类认知系统本质上是可计算的,但是机器不能以任意方式达到人类智能水准,秉承“人是万物的尺度”信条,打开人类认知黑箱是实现强AI的必要途径(如果不是唯一途径的话)。[1]30

  在此背景下,AI工程学家错失自我知识的问题似乎情有可原。由于自我知识是主体关于自身的感知、知觉、信念、欲望、情绪、想象等内在心理状态的自我归因,而AI在可见的将来,不太可能拥有主观性的意识体验和语义表征能力的意向性,AI连真正的“知识”都不具备,谈论AI能否拥有自我知识像是空中楼阁。不过,对哲学家来说,错失人工智能的自我知识问题则是令人遗憾的。我们并不指望对该问题给出一个全有或全无(all or nothing)的回答,然而有鉴于像大卫·查默斯这样有影响力的哲学家,竟然也在抽象地论证人工智能超越人类智能的“技术奇点”原则上是可实现的,审视自我知识这一人类独特的认知能力,是否能够以及怎样能够在AI上实现,[2]7-65绝不是一个无足轻重的问题。

  事实上,古希腊之后,自我知识问题就几度错失了它原本应有的丰富意蕴。德尔菲神庙上的箴言“认识你自己”,由苏格拉底诠释为“未经反思的生活是不值得过的”。“认识你自己”不只是在知识论的意义上对自身内在心理状态的把握,更是为了追求有意义、本真性和至善的生活,对自己的人格特征、道德品性和道路选择进行一般性的实践探索。进入基督教中世纪后,“认识你自己”的方式、意义和价值被“认识上帝”所取代。到了近代笛卡尔那里,尽管作为主体的“我思”重新担负起了“认识你自己”的功能,但他所刻画的“我思”与“所思”之间,由于有了第一人称权威的直接性和确定性作为保障,自我知识就不再是个特别重要的话题。二十世纪以来,英美哲坛重新燃起了探究自我知识的热情,但学术旨趣与过去相比有所不同。他们更关心的是:自我知识是否具有认识论上的特殊性?获取自我知识的方式是怎样的?自我知识究竟是内省的还是指向外部世界的?如果自我知识有助于确保其他类型的知识,那么这种作用究竟是什么?以及自我知识如何揭示自我或心智的本性?这些问题也关涉到一系列哲学争论,例如知识辩护的内在论与外在论之争、认识论的理性主义与经验主义之争、语义的宽内容与窄内容之争、自然主义与反自然主义之争等等。这种极具学究气的问题意识和研究进路固然有其不可否认的内在价值,然而当我们遭遇到有可能被认为是一种有别于人类的智能主体时,如果不将这些理论资源引入到人工智能哲学的考察视野,无疑将是再一次的错失。

  为了使这个问题在AI工程师那里同样富有意义,我们需要表明,AI在某种意义上也具有获取和调用自我知识能力的可能性。当代自我知识理论普遍认为,主体对于自身心理状态的内省内容,大致分为现象性的感知和情绪,以及作为命题态度的信念和欲望。譬如关于符号AI是否拥有信念和欲望,约翰·塞尔的“中文屋论证”的目标之一就是证明,一个外在行为表现通过了图灵测试的计算机看似理解汉语,实际上它只能根据程序进行句法操作,并没有真正理解汉语。[3]417-457塞尔认为,计算机原则上不具备语义内容和意向性,于是就不会拥有人类意义上的信念和欲望。众所周知,哲学家对“中文屋论证”的反驳方式很多。我们现在谈论的是一个基于现有工程水平的未来AI系统是否拥有信念和欲望,因而“系统应答”、“机器人应答”和“类脑应答”都倾向于支持我们的立场。退一步讲,就算关于计算机是否懂中文这个问题尚无判决性结论,我们不妨简单思考一个自我知识版本的“中文屋论证”思想实验。假定一切场景都如原初版本设置的那样,不懂汉语的塞尔坐在中文屋里,屋外的测试者递入一张写着汉语的字条,塞尔根据手头的符号规则转换表“照猫画虎”地取出一张卡片递出去,屋外的测试者收到回应字条并认为屋里的人是懂汉语的。现在我们不再追问塞尔是否真的懂汉语,而是把问题换成:中文屋里的塞尔知道他自己在做什么吗?一个快捷而符合直觉的答案是,由于塞尔亲历了整个操作过程,所以他知道自己在做什么,但是他只是执行了符号规则转换表的操作要求,他并不知道符号规则表为什么要设定这样的操作要求。这个升级版的思想实验给我们的初步启示是,我们甚至可以先不考虑计算机是否拥有语义理解和意向性,就一个符号AI系统在对自身的符号句法操作过程进行程序性监测的意义上而言,它可能具有程序性的自我知识。当然,这种意义上的自我知识和通常理解的自我知识似乎不同。我知道我相信外面在下雨,但我并不知道实现这个信念的大脑神经元活动是怎样的。即使我知道这一切,那又不是原本意义上的自我知识了。无论如何,我们现在能够得出的结论是条件性的:如果“中文屋论证”是错的,符号AI系统也就拥有语义表征意义上的信念和欲望,AI拥有某种意义上的自我知识是可能的。

  那么“新派AI”呢?以信念为例,有趣的是,新派人工智能专家倒是常常乐意使用“信念”(belief)和“可信度”(credence)这样的概念。信念的强度可通过统计学的概率定量表示,信念可在贝叶斯信念网络中进行计算,该网络中每个信念的可信度都会影响其他信念的可信度。斯坦福大学人工智能实验室的奠基人之一,尼尔斯·尼尔森(Nils Nilsson)甚至呼吁我们放弃关于信念的人类中心主义,他认为所有储存在一个计算机系统中的陈述性信息就构成了该系统的信念,因此机器人也有信念,比如谷歌的无人驾驶汽车和IBM的沃森。而且在形成有用信念的能力上,机器人与人类处于同一水平。[4]Ⅷ虽然他是这样讲的,但我们需要警惕语词使用的混乱。罗伯特·哈德雷(Robert Hadley)区分了AI专家在使用“信念”这个概念时的三种涵义。有时候他们谈论的,指的是大家通常所理解的基于命题与意义的信念;有时是指作为信息存贮在“信念箱”中,有待存取使用的基于逻辑学进路的信念;而当他们谈论作为可信度的信念时,又把信念理解为判断命题为真的主观概率。[5]55-73如此看来,有鉴于作为AI自我归因的一阶内容(例如信念、欲望等)在涵义上的多样性,当我们有条件地断言AI原则上拥有自我知识,应该弄清楚AI的自我知识与哲学家讨论的自我知识是否一致。

  除此之外,另一个有待回应的疑惑是,如果AI没有“自我意识”或“自我”,我们还能谈论它的自我知识吗?首先,自我知识与自我意识是两个既有关联又有区分的问题。虽然前者包含了对自我或“我”的指称,研究重点则是我们如何发现那些事实上是我们自己的心理状态;后者关心的是,这种指称是如何做到的,如何把那些心理状态确认为是“我”的。其次,某一特定的自我知识理论,可以与不同的自我意识观点相兼容。例如接下来马上谈及的亲知理论和内感觉理论,在自我意识问题上就没有特定的预设。[6]9-11最后,持有这种疑虑的,或多或少对“自我”抱有实在论的设定,然而至少对于AI来说,关于“自我”的本体论承诺是一个没有必要的、工程学上无法实现的理论负担。我们不妨采纳丹尼特(Daniel Dennett)的观点(尽管他探讨的是人类的自我),把AI的“自我”当作一个物体“重心”这样的理论虚构,这类疑问就会自行消解。无论如何,研究AI是否拥有自我知识,并非无根据无意义的空洞问题。

作者简介

姓名:王球 工作单位:

转载请注明来源:中国社会科学网 (责编:李秀伟)
W020180116412817190956.jpg
用户昵称:  (您填写的昵称将出现在评论列表中)  匿名
 验证码 
所有评论仅代表网友意见
最新发表的评论0条,总共0 查看全部评论

回到频道首页
QQ图片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
内文页广告3(手机版).jpg
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们