中国房间争论(二)
如果强人工智能是真的,那么就有一个中文程序,C,这样,如果任何计算系统运行C,该系统就会理解中文。
我可以运行 C,但不会因此而理解中文。
因此强人工智能是错误的。
第一个前提阐明了强人工智能的主张。第二个前提得到了中文室思想实验的支持。这个狭隘论点的结论是,运行程序不能赋予系统语言理解能力。 (还有其他方式来理解论证的结构。将某些主张理解为反事实可能是相关的:例如,前提 1 中的“存在一个程序”意味着可能存在一个程序,等等。根据这种解释,论证涉及模态逻辑、可能性和必然性的逻辑(参见 Damper 2006,将 CRA 重构为模态 5 步还原,以及 Shaffer 2009 的回应)。
还值得注意的是,强人工智能在上述第一个前提中所提出的主张将理解归因于“系统”。 Strong-AI 认为程序运行时将获得的理解对于 CRA 的成功或失败至关重要。 Schank 1978 有一个标题,声称他们小组的计算机(一种物理设备)能够理解,但在论文正文中,他声称程序 [“SAM”] 正在进行理解:SAM,Schank 说“......理解有关的故事”它拥有知识的领域”(第 133 页)。正如我们将在下一节 (4) 中看到的,这些有关理解者身份(CPU?程序?系统?其他东西?)的问题很快就引起了 CRA 批评者的关注。塞尔更广泛的论点包括这样的主张:思想实验更普遍地表明,人们无法从语法(形式符号操作)中获得语义(意义)。这个更大的主张和相关问题将在第 5 节:更大的哲学问题中讨论。
4. 对中文室争论的答复
对狭隘的中国房间论点反对强人工智能的批评通常遵循三个主线,这可以通过他们让步的多少来区分:
(1) 一些批评者承认房间里的人不懂中文,但认为运行该程序可能会让房间操作员以外的其他人理解中文。这些批评者反对根据房间里的人不懂中文的说法来推断,得出的结论是没有创造任何理解。可能有比在房间里沙沙作响的文件的人更大、更小或不同的实体的理解。这就是系统回复和虚拟心灵回复的策略。这些答复认为,房间的输出可能反映了对中文的真实理解,但这种理解不会是房间操作员的理解。因此,塞尔关于他在管理房间时不懂中文的说法被承认,但他关于无法理解中文问题以及计算主义是错误的说法被否认。
(2) 其他批评者承认 Searle 的说法,即仅运行 CR 场景中描述的自然语言处理程序并不能产生任何理解,无论是人类还是计算机系统。但这些批评者认为,计算机系统的变体可以理解。该变体可能是嵌入机器人体内的计算机,通过传感器和电机与物理世界交互(“机器人回复”),也可能是模拟整个人类大脑(逐个神经元)详细操作的系统(“大脑模拟器回复”)。
(3) 最后,一些批评者甚至不承认反对人工智能的狭隘观点。这些批评者认为,尽管塞尔否认,最初的“中文房间”场景中的人可能懂中文,或者这个场景是不可能的。例如,批评者认为我们在这种情况下的直觉是不可靠的。其他批评者认为,这完全取决于“理解”的含义——直觉答复部分讨论的要点。其他人(例如 Sprevak 2007)反对任何系统(例如房间里的 Searle)都可以运行任何计算机程序的假设。最后,一些人认为,如果根据中国房间所表现出的行为来赋予理解力是不合理的,那么根据类似的行为证据来赋予人类理解力也是不合理的(塞尔将这最后称为“ “其他人的回答”)。对 CRA 的反对意见是,我们应该愿意将中国房间中的理解归因于公开行为,就像我们对待其他人类(和一些动物)以及对待外星外星人一样(或燃烧的灌木丛或天使)说着我们的语言。这个立场与图灵的立场很接近,当时他提出了机器智能的行为测试。
除了这些专门针对“中文房间”场景的回应和本节要讨论的狭隘论点之外,一些批评家还独立地反对塞尔的更大主张,并认为人们可以从句法符号操作中获得语义(即意义),包括在数字计算机内部发生的排序,这是下面关于语法和语义的部分讨论的问题。
4.1 系统回复
在最初的 BBS 文章中,塞尔识别并讨论了他在不同地方的演讲中提出论点时遇到的对论点的几种回应。因此,这些早期的回应在随后的讨论中受到了最多的关注。 Searle 1980 所说的“也许是最常见的回复”是系统回复。
系统回复(Searle 称其最初与耶鲁大学有关,耶鲁大学是尚克人工智能研究的发源地)承认房间里的人不懂中文。但是,答复继续说,这个人只是一个更大系统中的一部分,一个中央处理器(CPU)。更大的系统包括巨大的数据库、包含中间状态的存储器(暂存器)和指令——回答中文问题所需的完整系统。因此,系统回答是,虽然运行该程序的人不了解中文,但整个系统都这样做。
内德·布洛克(Ned Block)是第一个按系统答复的人之一,以及其他许多人,包括杰克·科普兰(Jack Copeland),丹尼尔·丹尼特(Daniel Dennett),道格拉斯·霍夫斯塔特(Douglas Hofstadter),杰里·福多尔(Jerry Fodor),约翰·豪兰德(John Haugeland),雷·库尔兹维尔(Ray Kurzweil)和乔治·雷伊(Georges Rey)。雷伊(Rey,1986)说,房间里的人只是系统的CPU。 Kurzweil(2002)说,人类只是实施者,没有意义(大概意味着实施者的属性不一定是系统的属性)。 Kurzweil Hews符合Turing测试的精神,并认为,如果该系统显示出明显的理解中国人的能力,“它确实必须理解中国人” - Searle实际上是在说“机器说中文,但没有“理解中文”。
玛格丽特·博登(Margaret Boden)(1988)提出了关键的考虑。 “计算心理学并不能因为看到豆类刺或理解英语而倍受赞誉:诸如此类的故意状态是人的特性,而不是大脑的特性”(244) - 一个人是一个与大脑或身体不同的特工。 “简而言之,塞尔(Searle)对机器人的伪脑的描述(也就是机器人中的searle brain),因为理解英语涉及一种类别 - 与将大脑视为承载者相当的类别,与因果关系,与因果关系,相对于因果关系,与因果关系相反智力”。 Boden(1988)指出,房间操作员是有意识的代理,而计算机中的CPU则不是 - 中国房间的场景要求我们采用实施者的视角,毫不奇怪,没有看到更大的图像。
Searle对系统的回答很简单:原则上,他可以将整个系统内部化,记住所有说明和数据库,并在脑海中进行所有计算。然后,他可以离开房间,在户外漫步,甚至可能用中文交谈。但是他仍然无法将“任何含义上的任何含义”附加到形式符号上。这个人现在将成为整个系统,但他仍然不了解中文。例如,他不知道汉堡包中文单词的含义。他仍然无法从语法中获得语义。
在某种程度上,西尔(Searle)在这里的回应预计后来延长了思维视图(例如Clark and Chalmers 1998):如果失去记忆力的Otto可以通过将某些信息外部化到他的笔记本上来恢复这些召回能力,那么Searle可以说是反面的:通过内部化说明和笔记本,他应该获得扩展系统具有的任何能力。因此,塞勒实际上结论是,由于他没有通过内部化整个系统的外部组件来获得对中国的理解(例如,他仍然不知道汉堡的中文单词的意思),因此在部分外部化中永远不会理解原始中国房间的系统。
杰克·科普兰(Jack Copeland)在2002年的论文“从逻辑角度来看的中国房间”中考虑了塞尔对系统的回答,并认为塞尔尔(Searle)的头部的homclus即使房间操作员本人也不理解,就像我们大脑中的模块一样求解张量方程,使我们能够捕获板球。然后,谷轮转向考虑中国体育馆,似乎再次认可系统回答:“……个别玩家[不]了解中文。但是,这并不是说整个模拟并没有理解中文的说法。从一部分到整个部分的谬论比中国房间的原始版本更为明显。”科普兰否认联系主义意味着一个人可以模拟大脑。
Shaffer 2009研究了CRA逻辑的模态方面,并认为系统的熟悉版本是问答的。但是,Shaffer声称,系统答复的一个调制版本成功了,因为在某些世界上,理解是复杂语法操纵的新兴属性。 Nute 2011是Shaffer的答复。
Stevan Harnad捍卫了Searle在两篇论文中反对系统回答批评者的论点。 Harnad在1989年的论文中写道:“ Searle提出了以下问题:头脑是计算机程序吗?或者,更具体地说,如果计算机程序模拟或模仿我们似乎需要理解的活动(例如用语言交流),那么该程序本身是否可以说是这样做的?” (请注意具体的主张:问题是该程序本身是否理解。)Harnad得出结论:“从表面上看,[CR论证]看上去有效。它当然可以与最常见的重新加入,“系统回复”……。” Harnad似乎遵循Searle在将意识和意识状态联系起来时:Harnad 2012(其他互联网资源)认为,Searle表明,有意识的“感觉”的核心问题需要与现实世界的感觉联系。 (有关讨论,请参见下面的“机器人答复”和“意图”的节。)
最终,有人认为,即使房间操作员记住规则并在他的脑海中进行所有操作,房间操作员也不会成为系统。 Cole(1984)和Block(1998)都认为,结果并不是Searle与该系统的认同,而是更像是多种个性的情况 - 一个人的不同人。中国响应的系统不是塞尔,而是他的一部分。在CR案件中,一个人(Searle)是英国单体,而另一个是中国单体。讲英语的人对中国反应的含义的完全不认识并没有表明他们不了解。这条不同的人会导致虚拟的思维回答。
4.1.1虚拟思维回复
虚拟的思维答复和系统答复也承认,中国房间的操作员仅通过运行纸机而不理解中国人。但是,虚拟思维的答复认为,重要的是是否创建了理解,而不是房间操作员是否是理解的代理。与系统答复不同,虚拟思维回复(VMR)认为,运行系统可能会创建与整个系统以及从CPU或运算符等子系统不同的新的虚拟实体。特别是,运行的系统可能会创建一个了解中文的独特代理。该虚拟代理将与房间操作员和整个系统不同。人工智能创造的任何思想的心理特征,包括语言能力,都将完全取决于程序和中国数据库,并且与CPU或造纸机的操作员的心理特征和能力不会相同,例如塞尔在中国房间的场景中。根据VMR的说法,中国房间中的错误是使强烈AI的主张是“计算机了解中文”或“系统理解中文”。 AI的争论索赔应该仅仅是“运行的计算机都会产生对中文的理解”。
例如,约翰·霍格兰德(John Haugeland)写道(2002),塞尔(Searle)对系统的回应有缺陷:“……他现在问的是,如果他在自己的脑海中有意识地实施基本的正式结构和操作,那将是什么样该理论说足以实施另一种思想。”据Haugeland称,他未能理解中文是无关紧要的:他只是实施者。实施的头脑会理解 - 存在描述级别的谬论。
虚拟代理的熟悉模型是计算机或视频游戏中的字符,以及诸如Chatgpt之类的生成AIS。视频游戏中的角色具有各种能力和个性,并且角色与创建它们的系统硬件或程序并不相同。单个运行系统可以同时控制两个不同的虚拟代理或物理机器人,其中一个仅以中文对话,其中一个只能用英语交谈,否则它们表现出非常不同的个性,记忆和认知能力。对于系统回复,系统可以理解,而对于VM回复,运行系统会创建一个与系统或物理实现不相同的新的,虚拟的,心灵。因此,VM答复要求我们区分思想及其实现系统。
Minsky(1980)和Sloman and Croucher(1980)提出了当中国房间争论首次出现时的虚拟思想。蒂姆·莫德林(Tim Maudlin)在1989年广泛阅读的论文“计算和意识”中考虑了可能实施运行程序的计算系统的最小物理系统。他的讨论围绕着他虚构的奥林匹亚机器,这是一种传输水的水桶系统,实施了图灵机。莫德林的主要目标是计算师的说法,即这种机器可能具有惊人的意识。然而,在讨论的过程中,莫德林认为中国房间的论点。莫德林(引用明斯基,斯洛曼和克劳赫)指出了一个虚拟的思想回答,即理解的代理人可能与物理系统有所不同(414)。因此,“ Searle并没有采取任何措施来挑战同时存在的脱节心态的可能性”(414-5)。
Perlis(1992),Chalmers(1996)和Block(2002)显然也认可了Virtual Mind回答的版本,Richard Hanley在《星际迷航的形而上学》(1997年)中也是如此。 Penrose(2002)是对这一策略的批评,Stevan Harnad轻蔑地驳斥了这种英勇的求爱。哈纳德(Harnad)捍卫了塞尔(Searle)在“虚拟思想的虚拟研讨会”(1992)对帕特里克·海斯(Patrick Hayes)和唐·佩里斯(Don Perlis)中的立场。他说,佩里斯(Perlis)从莫德林(Maudlin)提出了一个虚拟思想的论点。 Chalmers(1996)指出,房间操作员只是因果关系的促进者,即“恶魔”,因此他的意识状态与整个系统的特性无关。像莫德林(Maudlin)一样,查默斯(Chalmers)提出了个人身份问题 - 我们可能将中国房间视为“在同一物理空间内实现的两个心理系统。引起中国体验的组织与导致恶魔的[=房间经营者]经验的组织完全不同”(326)。
科尔(Cole,1991,1994)提出了答复,并认为:塞尔的论点要求理解的推动者是计算机本身,或者在中国房间中平行于房间里的人。但是,西尔在房间里没有理解中国人的理解并没有表明没有理解。关键考虑因素之一是,在Searle的讨论中,与中国房间的实际对话始终被严重规定。 Searle正在考虑Schank的计划,该计划只能回答有关餐厅中发生的事情的几个问题。但是Searle希望他的结论适用于任何AI产生的答复,包括那些将通过最艰难的无限制测试的答案,即,它们只是真实的人之间的对话。如果我们在原始的CR场景中充实对话,以包括“您有多高?”,“您住在哪里?”,“您有什么早餐?”,“您对您对您的态度是什么,您对毛? Searle不是答案的作者,他的信念和欲望,回忆和个性特征(除了勤奋之外!)并没有反映在答案中,而且总的来说,Searle的特征在产生中国问题的答案时是有因果关系的。这表明以下条件是正确的:如果通过运行该程序来理解中国人,无论计算机是人类还是电子,理解中国人都不是计算机。理解中国人的人将是与房间操作员的独特人物,该计划及其数据库赋予了信念和欲望。因此,Searle在经营房间时未能理解中文并没有表明并未创造理解。
科尔(Cole,1991)提出了另一种论点,即做理解的思想既不是房间操作员的思想,也不是由操作员和程序组成的系统:运行适当结构的计算机程序可能会产生中文提交的答案,也可以产生问题的答案。在韩国人提交。然而,中国的答案显然可能表现出完全不同的知识,记忆,信念和欲望与朝鲜问题的答案,同时否认中国答案者知道任何韩语,反之亦然。因此,行为的证据是有两个非相同的思想(一个只能理解中国人,而仅理解韩国人)。由于这些可能具有相互排斥的属性,因此它们不能相同,而事实上,IPSO不能与房间中实施者的思想相同。另外,我们可以通过假设房间外的那些不仅提交中文,而且用英语提交问题来充实Searle的情况。结果似乎是房间里有两个人 - Searle回答了有关他自己以及他认为是这种情况的问题,还有一个具有不同个人历史和对世界知识的中国发言人。类似地,视频游戏可能包含一个具有一组认知能力(智能,理解中文)以及另一个具有不相容集合(愚蠢的英语单体单元)的(智能,理解中文)的(智能,理解中文)的(智能)。这些不一致的认知特征不能是实现它们的Xbox系统的特征。科尔认为,这意味着思想和人通常比实现它们的物理系统更为抽象(在较大的哲学问题部分中,请参阅思想和身体)。
简而言之,虚拟思想的论点是,由于Searle规定对中国人没有任何了解的证据是他在房间里不了解中文,因此中国房间的论点不能反驳不同的同样强烈的AI主张,并主张使用编程的数字计算机创造一种理解自然语言的独特思想的可能性。莫德林(Maudlin,1989)说,塞尔还没有充分回应这种批评。
然而,其他人则回答了VMR,包括Stevan Harnad和数学物理学家Roger Penrose。彭罗斯(Penrose)通常同情西尔(Searle)在中国房间的论点上提出的观点,并反对虚拟思想的答复。彭罗斯(Penrose)不认为计算过程可以说明意识,无论是在中国的房间基础上,以及由于库尔特·戈德尔(KurtGödel)不完整的证据所揭示的正式系统的局限性。 (彭罗斯有两本关于思想和意识的书;查尔默斯和其他人对彭罗斯对戈德尔的呼吁做出了回应。)在2002年的文章“意识,计算和中国房间”中,彭罗斯认为中国体育馆特别解决了中国房间的论点。变化 - 房间扩大到印度的规模,印第安人正在进行处理 - 表明,保持“某种不明智的'理解'相关,这是非常令人难以置信的该人正在执行该算法,并且其存在并不以任何方式影响他自己的意识”(230-1)。彭罗斯(Penrose)总结了中国房间的论点驳斥了强烈的AI。克里斯蒂安·卡恩巴赫(Christian Kaernbach,2005)报告说,他对虚拟思想理论进行了经验测试,结果负面结果。