中国房间争论(三)
4.2机器人回复
机器人答复承认,塞尔(Searle)对中国房间的情况是正确的:它表明,被困在计算机房间中的计算机无法理解语言,或者知道单词的含义。机器人答复对了解汉堡的中文含义的含义有回应 - 西尔(Searle)的示例是房间操作员不知道的事情。认为我们大多数人都知道汉堡是什么是合理的,因为我们已经看到了一个,甚至可能做到了,或者味道一个,或者至少听到人们在谈论汉堡包,并通过将它们与我们所做的事情联系在一起,理解了它们是什么通过看到,制作和品尝来了解。鉴于这是一个人可能知道汉堡包是什么的方式,机器人的答复表明,我们将数字计算机放在机器人体内,带有传感器,例如摄像机和麦克风,并添加效应器,例如车轮,以便与车轮一起移动,随身携带。和武器可以操纵世界上的事物。这样的机器人 - 带有身体的计算机 - 可能会做一个孩子所做的事情,通过看和做学习。机器人答复认为,从房间释放的机器人体中的这种数字计算机可以将含义附加到符号上,并实际理解自然语言。玛格丽特·博登(Margaret Boden),蒂尔·克雷恩(Tim Crane),丹尼尔·丹尼特(Daniel Dennett),杰里·福多尔(Jerry Fodor),史蒂文·哈纳德(Stevan Harnad),汉斯·莫拉维克(Hans Moravec)和乔治·雷伊(Georges Rey)都是一次或一次认可此答复版本的人。机器人的答复实际上吸引了“广泛的内容”或“外部主义语义”。这可以与Searle一致,即语法和内部联系与世界隔离不足,同时认为与世界的合适因果关系可以为内部符号提供内容。
大约在塞尔(Searle)施压CRA的时候,语言和思想哲学的许多人都认识到因果关系与世界的重要性是单词和概念的意义或参考的来源。希拉里·普特南(Hilary Putnam 1981)1981年认为,与世界隔离的大脑,但神经元与产生虚拟世界的计算机有关,可能会说话或以一种听起来像英语的语言,但不是英语 - 因此,大脑在增值税中,它毫不怀疑它是否是大脑中的大脑(由于它的感觉隔离,其“大脑”和“增值税”的词不提及大脑或大桶)。通过与世界的联系确定含义的观点变得广泛。然而,塞尔抵制了这一转变,并继续将意义视为主观,并与意识联系在一起。
自1990年代以来,最好将思想最好理解为世界上体现或嵌入世界的人,这是许多支持者的contra笛卡尔solipsistic直觉。有机体依靠环境特征来取得其行为的成功。因此,无论是一个人想成为符号处理系统,符号从与世界的感觉联系中获取内容,还是通过嵌入在特定环境中成功的非符号系统,在特定环境中,头部外部事物的重要性脱颖而出。因此,许多人对某种形式的机器人回答表示同情:如果计算系统在世界上起作用,则可能会理解。例如,卡特(Carter)2007在一本关于哲学的教科书和AI的结论中得出的结论是:“从中国房间思想实验中汲取的教训是,体现经验对于语义的发展是必不可少的。”
但是,Searle认为机器人对中国房间的论点的答复并不比系统回答更强大。传感器所能做的就是向计算机提供其他输入 - 它将只是句法输入。我们可以通过平行更改中国房间的情况来看到这一点。假设中国房间里的那个人还收到了汉字,除了汉字滑落的汉字之外,在房间的一角上出现的二进制数字流。增加了指令书,以将磁带中的数字与汉字一起使用。房间里的人不知道,胶带上的符号是摄像机的数字化输出(甚至是其他传感器)。 Searle认为,其他句法输入将无济于事,使该人能够将含义与汉字相关联。对于房间里的男人来说,这只是更多的工作。
杰里·福多尔(Jerry Fodor),希拉里·普特南(Hilary Putnam)和戴维·刘易斯(David Lewis)是塞尔(Searle)更广泛论证攻击的心理理论的主要建筑师。 Fodor在1980年对Searle的最初答复中允许Searle肯定是正确的,“实例化与大脑相同的程序本身并不足以具有这些命题态度,例如信仰,具有大脑的生物的特征。”但是Fodor认为Searle对机器人的答复是错误的。如果计算机与世界有正确的因果关系,那么它可能对世界有信念和知识,但是这些人的关系不是由坐在机器人头上的男人介导的。我们不知道正确的因果关系是什么。塞尔(Searle)犯了从“小男人不是正确的因果关系”中推断出来的谬论,得出的结论是没有因果关系成功。有大量的经验证据表明,心理过程涉及“符号操纵”。 Searle没有提供其他解释(这有时被称为Fodor关于计算方法的“唯一的游戏”论点)。在1980年代和1990年代,Fodor广泛地写了关于大脑状态与世界之间必须具有故意(代表性)属性的联系,同时强调计算主义具有限制,因为计算本质上是本地的,因此无法说明计算主义。对于绑架推理,这是对最佳解释的推论。
在后来的一篇文章中,“中国房间里的阴和阳”(在Rosenthal 1991 pp.524-525中),Fodor实质上修改了他1980年的观点。他与早期版本的机器人答复保持距离,并认为“实例化”的定义是这样的方式,即符号必须是效果的直接原因 - 房间里没有干预的人。因此,房间里的Searle并不是图灵机器的实例化,“ Searle的设置不能实例化大脑实例化的机器。”他总结说:“……Searle的设置与说与中国人说话的大脑的强烈等同的说法无关紧要。塞尔谈到福多尔的举动时说:“在对中国房间争论的所有批评中,福多尔的批评也许是最绝望的。他声称,正是因为中国房间里的人开始在计算机程序中实施步骤,因此他没有在计算机程序中实施步骤。他对这一非凡主张没有任何论点。” (在Rosenthal 1991,第525页)
在1986年的论文中,乔治·雷伊(Georges Rey)提倡系统和机器人答复的组合,因为他指出原始的图灵测试不足以作为对智力和理解的测试,并且在房间中描述的孤立的系统描述的肯定在功能上等同于等同于真正的中国说话者在世界上感知和表演。雷伊(Rey)在2002年的第二次审视中,“塞尔对功能主义和强大的AI的误解”,再次捍卫了功能主义,以防止塞尔(Searle),而在特定形式中,雷伊(Rey)称其为“计算代表性的思想理论 - crtt”。 CRTT不承诺将思想归因于任何通过图灵测试(例如中国房间)的系统。它也不致力于理解自然语言的对话手册模型。相反,CRTT关注的是自然和人为的意图(系统中的表示形式是可以评估的 - 它们是真实的,或者是错误的,因此具有对性的影响)。塞尔(Searle)具有行为主义的“黑框”特征,但功能主义的工作是如何做事。雷伊(Rey)素描“一种谦虚的思想”(一种具有感知,可以做出演绎和归纳的推论,根据世界的目标和表征做出决策,并可以通过其本地代表转换和从其本地代表转换来处理自然语言的决策。为了解释这种系统的行为,我们需要使用所需的相同归因来解释普通的中国人说话的行为。
如果我们在机器人回复的背景下充实中国对话,就像虚拟思维回复一样,我们可能会再次看到证据表明,了解的实体不是房间内的操作员。假设我们使用“您看到的内容?”的中文翻译询问机器人系统,我们可能会得到答案“我的老朋友Shakey”或“我见到您!”。鉴于我们在房间里打电话给塞勒并用英语提出相同的问题,我们可能会得到“这四堵墙”或“这些该死的无尽的指令书和笔记本”。同样,这证明我们在这里有不同的响应者,讲英语的人和一位中国发言人,他们看到并做了完全不同的事情。如果巨型机器人横冲直撞并砸碎了东京的大部分地区,而毫无疑问的塞尔只是在房间里的笔记本上关注该程序,那么塞勒就不是凶杀和混乱的,因为他不是代理人的代理人。 。
蒂姆·克雷恩(Tim Crane)在1991年的《机械思想》中讨论了中国房间的论点。他引用了丘奇兰兹(Churchlands)的1990年发光房间的类比,但随后继续争辩说,在经营房间的过程中,塞尔(Searle)会学习中国人的含义:开始在中国人民的世界中行事,然后他很长时间才意识到这些符号的含义是合理的。”(127)。 (Rapaport 2006,按照海伦·凯勒(Helen Keller)和中国房间之间的类比。)起重机似乎以机器人回答的形式结束:“塞尔(Searle)的论点本身就是通过(实际上)否认AI的中心论点来乞求这个问题正式的符号操纵。但是,在我看来,塞尔的假设似乎是正确的……对塞尔的论点的适当回应是:当然,室里的塞勒或一个房间,或者独自一人无法理解中文。但是,如果让外界对房间产生一定的影响,含义或“语义”可能会开始立足。但是,当然,这承认思想不能简单地是符号操纵。” (129)学习理由的理解导致了开发机器人技术的工作(又称表观遗传机器人技术)。这个AI研究领域试图复制关键的人类学习能力,例如从几个角度显示对象的机器人,同时以自然语言告知对象的名称。
玛格丽特·博登(Margaret Boden)1988年还认为,塞尔(Searle)错误地认为程序是纯粹的语法。但是程序带来了某些机器的活动:“任何计算机程序的固有过程后果使其在语义上是一个脚趾,其中所讨论的语义不是指称的,而是因果关系。” (250)因此,机器人可能具有因果关系,使其能够指代汉堡包。
Stevan Harnad还发现我们的感官和运动能力很重要:“谁说图灵测试,无论是用中文还是其他语言进行的,都可以成功通过,而无需使用我们的感官,运动和其他更高的操作的操作认知能力吗?理解中国人的能力从哪里开始,而我们其余的精神能力也会离开?”哈纳德认为,符号功能必须基于将系统与世界联系起来的“机器人”功能。他认为这违反了诸如杰里·福多尔(Jerry Fodor)的心态的象征叙述,以及一个嫌疑人,罗杰·舒克(Roger Schank)的方法是塞尔(Searle)的原始目标。 Harnad 2012(其他互联网资源)认为,CRA表明,即使有一个符号在外部世界中扎根的机器人,仍然存在一些缺少的东西:感觉,例如理解感觉。
但是,Ziemke 2016认为,对身体调节的分层系统的机器人体现可能会基础情感和意义,而Seligman 2019则认为,“自然语言处理的“感知基础”方法(NLP)具有“表现出意图的潜力,因此可以促进促进意图从塞尔(Searle)和其他怀疑论者看来,一种真正有意义的语义在本质上超出了计算机的能力。”
4.3大脑模拟器回复
考虑一台以与脚本和操作在类似符号的句子字符串的AI程序不同方式操作的计算机。大脑模拟器的答复要求我们假设该程序与当该人理解中国人(每一个神经,每一个射击)时,该程序与中文母语者大脑中发生的神经发火的实际顺序相似。由于计算机随后的工作方式与中国人说话的大脑的方式相同,因此以相同的方式处理信息,因此它将了解中文。保罗和帕特里夏·丘奇兰(Patricia Churchland)已经在下面讨论了这些方面的答复。
为此,西尔认为这没有什么区别。他建议对大脑模拟器方案有所不同:假设在房间里,男人有一组巨大的阀门和水管,与中国人说话的人的大脑中的神经元相同。该程序现在告诉该人以响应输入而打开哪些阀门。 Searle声称很明显,对中国人没有任何了解。 (但是,请注意,这一主张的基础不再是Searle本人不会理解中国人的理解 - 很明显,现在他只是在促进该系统的因果运作,因此我们依靠我们的Leibnizian直觉, 't理解(另请参见Maudlin 1989)。)Searle得出结论,大脑活动的模拟不是真实的。
但是,在Pylyshyn 1980,Cole和Foelber 1984和Chalmers 1996之后,我们可能会想知道逐渐过渡机器人系统。 Pylyshyn写道:
如果您的大脑中越来越多的单元被集成的电路芯片代替,以保持输入输出功能的方式,以保持每个单元与所替换单元相同的单元,您很可能只能保持完全按照您现在的方式说话,除了您最终会停止含义任何事情。我们外面的观察者可能要说的是言语会成为您的某些声音,而这些噪音会导致您发出的声音。
这些纯种思想实验可以与中国房间相关联。
假设奥托患有一种神经疾病,导致他大脑中的一个神经元失效,但外科医生在他残疾的神经元旁边安装了一个微小的远程控制人工神经元,即 Synron。奥托的人工神经元由中文室的约翰·塞尔控制,塞尔和奥托都不知道。微小的电线将人工神经元连接到残疾神经元细胞体上的突触。当他的人工神经元受到残疾神经元突触的神经元刺激时,中国房间里的灯亮了。然后塞尔根据程序操纵一些阀门和开关。通过无线电链路,奥托的人工神经元从其微小的人工囊泡中释放神经递质。如果塞尔的编程活动使奥托的人工神经元的行为就像他残疾的自然神经元曾经所做的那样,那么他的神经系统其余部分的行为将不会改变。唉,奥托氏病恶化了;更多的神经元被塞尔控制的同步子所取代。假设世界其他地方不会注意到这种差异;奥托会吗?如果是的话,什么时候?为什么?
在“组合回复”的标题下,塞尔还考虑了一种具有上述所有三个特征的系统:一个机器人,其铝颅骨中装有模拟计算机的数字大脑,因此该系统的整体行为与人类没有区别。由于大脑的正常输入来自感觉器官,因此很自然地认为大多数大脑模拟器回复的拥护者想到的是大脑模拟、机器人和系统或虚拟思维回复的这种组合。有些人(例如 Rey 1986)认为将意向性归因于整个系统是合理的。塞尔同意,将理解归因于这样的安卓系统确实是合理的——但前提是你不知道它是如何工作的。一旦你知道真相——它是一台计算机,根据语法而不是意义来不理解地操纵符号——你就不再将意向性归因于它。
(人们认为,即使是一个人的配偶,与他建立了终生的关系,这也是真的,因为隐藏了一个硅秘密而被揭露。科幻故事,包括罗德·瑟林的电视剧《阴阳魔界》的剧集,已经基于这种可能性(心爱的人的脸剥落,揭示了可怕的机器人真相);然而,史蒂文·平克(Steven Pinker)(1997)提到了一个情节,其中机器人的秘密从一开始就被人所知,但主角仍然在发展。与机器人的浪漫关系。)
在“中文房间”争论十周年之际,普通科学期刊《科学美国人》对其进行了专题报道。哲学家保罗·丘奇兰 (Paul Churchland) 和帕特里夏·丘奇兰 (Patricia Churchland) 率先反对塞尔在该期的主要文章。丘奇兰夫妇同意塞尔的观点,即“中文室”不懂中文,但他们认为这一论点本身利用了我们对认知和语义现象的无知。他们提出了一个与“发光房间”类似的案例,其中有人挥动一块磁铁,并认为没有产生可见光表明麦克斯韦的电磁理论是错误的。丘奇兰主张将大脑视为联结系统、向量转换器,而不是根据句法敏感规则操纵符号的系统。中国房间的系统使用了错误的计算策略。因此,他们同意塞尔反对传统人工智能的观点,但他们大概会支持塞尔所谓的“大脑模拟器答复”,认为就像发光室一样,在考虑如此复杂的系统时,我们的直觉会失败,并且认为这是一个谬论。从部分到整体:“……我大脑中没有神经元理解英语,尽管我的整个大脑都懂。”
在他 1991 年出版的著作《微观认知》中。安迪·克拉克认为塞尔是对的,运行尚克程序的计算机对餐馆一无所知,“至少如果‘知道’是指‘理解’之类的东西”。但塞尔认为这适用于任何计算模型,而克拉克和丘奇兰斯一样,认为塞尔关于联结主义模型的看法是错误的。因此,克拉克的兴趣在于大脑模拟器的回答。大脑凭借其物理特性进行思考。大脑的哪些物理特性很重要?克拉克回答说,大脑最重要的是“可变且灵活的子结构”,而像 Schank 的系统(“GOFAI”或“Good Old-Fashioned AI”)这样的句法、基于规则的系统所缺乏的。但这并不意味着计算主义或功能主义是错误的。这取决于您将功能单元置于什么级别。克拉克捍卫“微功能主义”——人们应该寻找细粒度的功能描述,例如神经网络级别。克拉克赞同地引用了威廉·莱肯(William Lycan)的观点来反对布洛克缺乏感受性的反对意见——是的,如果功能单元做得很大,就可能会缺乏感受性。但这并不构成对功能主义的总体反驳。因此,克拉克的观点与丘奇兰的观点没有什么不同,承认塞尔关于尚克和符号级处理系统的观点是正确的,但认为他对联结主义系统的观点是错误的。
同样,雷·库兹韦尔(Ray Kurzweil,2002)认为,塞尔的论点可以反过来证明人类大脑无法理解——大脑通过操纵神经递质浓度和其他本身毫无意义的机制来成功。在批评塞尔对大脑模拟器回复的回应时,库兹韦尔说:“因此,如果我们将塞尔的中文室扩大到所需的相当大的‘房间’,谁能说整个系统由一百万亿人模拟一个懂中文的中国人大脑没有意识吗?当然,说这样的系统懂中文是正确的。我们不能说它没有意识,就像我们不能说任何其他过程一样。我们无法知道另一个实体的主观体验……”
4.4 其他人的回应
与前述相关的是《异想天开》的回复:“你怎么知道别人懂中文还是其他什么?只能通过他们的行为。现在,计算机可以(原则上)通过行为测试,因此,如果你要将认知归因于其他人,原则上你也必须将其归因于计算机。”
Searle(1980)对此的回答非常简短:
这次讨论的问题不是我如何知道其他人有认知状态,而是当我将认知状态归因于他们时,我将其归因于他们的是什么。该论点的主旨是,它不仅仅是计算过程及其输出,因为计算过程及其输出可以在没有认知状态的情况下存在。假装麻醉并不能回答这个论点。在“认知科学”中,人们必须预设心理的现实性和可知性,就像在物理科学中,人们必须预设物理对象的现实性和可知性一样。