中国房间争论(四)
塞尔的主张的批评者认为,如果我们拥有的人类理解的证据与我们可能拥有的来访的外星外星人理解的证据相同,这与机器人理解的证据相同,那么我们可以做出的预设就我们自己的物种而言,这些并不相关,因为预设有时是错误的。出于类似的原因,图灵在提出图灵测试时,特别担心我们的预设和沙文主义。如果关于人类的预设的理由是务实的,因为它们使我们能够预测人类的行为并与他们有效地互动,那么这个预设也许同样适用于计算机(丹尼特在他关于什么的讨论中也提出了类似的考虑)他称之为故意立场)。
塞尔提出了一个问题,即我们将理解归因于其他思想时到底归因于什么,他说这不仅仅是复杂的行为倾向。对于塞尔来说,理解似乎涉及意识状态,正如他在 2010 年对 CRA 结论的总结中所见。特里·霍根(Terry Horgan,2013)赞同这一说法:“塞尔中国房间思想实验的真正寓意是,真正的原始意向性需要存在具有本质上意向性的内在现象特征的内部状态……”但是这种理解与现象意识的联系引发了一种主持人。
我们把对语言的有限理解归因于幼儿、狗和其他动物,但不清楚我们是否确实将主观意识的看不见的状态归因于我们对外来生物的隐藏状态了解多少?路德维希·维特根斯坦(私人语言论证)和他的追随者也提出了类似的观点。类似于颠倒频谱的改变的感受性可能性出现:假设我问“5 和 7 的总和是多少”,你回答“5 和 7 的总和是 12”,但是当你听到我的问题时,你有意识地体验到听到并理解“10 和 14 的和是多少”,尽管您处于适合产生正确总和的计算状态,因此说“12”。是否有某些意识状态对于某些功能状态来说是“正确的”?维特根斯坦的考虑似乎是,如果语言使用者表现出适当的语言行为,主观状态就无关紧要,充其量只是附带现象。毕竟,我们学习语言是基于我们的外在反应,而不是我们的感受性或意识状态。数学专家丹尼尔·塔梅特 (Daniel Tammet) 报告说,当他将 pi 进行十进制展开到数千位时,他会体验到显示下一位数字的颜色,但即使在这里,坦南特的表现也可能不是由他体验到的颜色产生的,而是由他体验到的颜色产生的。无意识的神经计算会产生正确的答案和他所经历的颜色。下面关于意向性的部分进一步考虑了主观状态可能的重要性。
自 CRA 以来,人们对另一个“他人思想”问题产生了哲学兴趣,即僵尸的可能性——僵尸是一种看起来像正常人、行为方式与正常人一样的生物,包括语言行为,但没有主观意识。在缺乏感受性的情况下,声称主观意识状态对于理解意义至关重要:我们无法区分僵尸和非僵尸,因此根据塞尔的说法,我们无法区分僵尸和非僵尸。那些真正懂英语的人和那些不懂英语的人。如果你我都无法区分那些理解语言的人和那些表现得像他们一样但实际上并不真正理解语言的僵尸之间的区别,那么人类进化史上的任何选择因素都无法区分——对于掠食者、配偶、部落成员,僵尸和真正的理解者,在“正确”的意识体验下,已经无法区分。但这样一来,似乎就有了区别,但没有区别。无论如何,塞尔对“其他想法的答复”的简短答复可能太短了。
笛卡尔有一个著名的论点,即言语足以将思想和意识归因于他人,并且臭名昭著地认为这是必要的。图灵实际上认可笛卡尔的充分性条件,至少在智力方面,同时用书面语言代替口头语言行为。由于我们大多数人使用对话作为理解的充分条件,塞尔的论点认为,言语是人类理解的充分条件,但对于与我们的生物学特征不同的任何事物来说则不然,因此似乎需要对以下内容进行解释:额外的归因是什么,以及什么可以证明额外的归因是合理的。此外,如果在塞尔的解释中,同具体性是关键,那么一个自然的问题是,什么情况下我们可以将理解(或意识)归因于与我们生物学不同的外星外星人?在进行脑部扫描或尸检之前隐瞒理解的归因可能会冒犯外星人,这可能是有风险的。
卡内基梅隆大学机器人实验室主任、《机器人:单纯的机器到超越心灵》一书的作者汉斯·莫拉维克认为,塞尔的立场仅仅反映了传统心灵哲学的直觉,与新的认知科学格格不入。莫拉维克赞同“其他思想”回复的一个版本。将意向性归因于机器是有意义的,其原因与将意向性归因于人类也有意义一样。他的“解释立场”与丹尼特的观点相似。莫拉维克接着指出,我们归因于他人的事情之一就是有能力归因于意向性,然后我们将这种归因归因于我们自己。他认为这种自我表征是意识的核心。这些能力似乎与实现无关,因此对于外星人和经过适当编程的计算机来说是可能的。
正如我们所看到的,塞尔认为我们可以忽视机器人和计算机的行为证据的原因是我们知道它们的处理是句法的,这一事实胜过所有其他考虑。事实上,塞尔认为这就是“中文室”所仅仅说明的更重要的一点。这个更大的问题将在下面的语法和语义部分中讨论。
4.5 直觉的回答
对“中国房间”论点的许多回应都指出,与莱布尼兹磨坊一样,该论点似乎基于直觉:计算机(或房间里的人)无法思考或理解的直觉。例如,内德·布洛克(Ned Block,1980)在他最初的 BBS 评论中说:“塞尔的论证的力量取决于某些实体不认为的直觉。”但是,布洛克认为,(1)直觉有时可以而且应该被超越;(2)也许我们需要使我们的理解概念符合现实,即某些计算机机器人与人类属于同一自然种类。同样,玛格丽特·博登(Margaret Boden,1988)指出,我们不能相信我们未经训练的直觉,认为心灵如何依赖于物质;我们不能相信我们的直觉。科学的发展可能会改变我们的直觉。事实上,消除我们直觉中的偏见正是图灵(1950)提出图灵测试的动机,这是一种对回答问题的系统的物理特征视而不见的测试。塞尔的一些批评者实际上认为,他只是把对直觉的依赖推回到了房间里。
例如,人们可以认为,尽管塞尔直觉地认为他在房间里听不懂中文,但也许他是错的,而且确实听懂了,尽管是无意识的。豪瑟(Hauser,2002)指责塞尔在从“在我看来很明显我一无所知”到我真的一无所知的结论中存在笛卡尔偏见。 (笛卡尔从“我可以很清楚地想象自己没有身体而存在”中,不合理地推断出“我可以没有身体而存在。”)通常情况下,如果一个人懂英语或中文,就知道自己懂——但不一定。中国房间里的人可能缺乏正常的内省理解意识——但这虽然不正常,但并不能支持他不理解的结论。
CRA 的批评者指出,我们对智力、理解力和意义的直觉可能都不可靠。关于意义,Wakefield 2003 继 Block 1998 之后,捍卫了 Wakefield 所说的对 CRA 的“本质主义反对”,即意义的计算解释不是对普通概念及其相关直觉的分析。相反,我们正在建立一种科学的意义理论,这可能需要修正我们的直觉。作为一种理论,它的证据来自于它的解释力,而不是它与前理论直觉的一致性(然而韦克菲尔德本人认为,意义的计算解释受到了有害的不确定性的困扰(第308页))。
其他关注直觉在 CRA 中的作用的批评者认为,我们关于智力和理解力的直觉也可能是不可靠的,甚至可能与当前的科学不相容。关于理解,史蒂文·平克(Steven Pinker)在《心灵如何运作》(How the Mind Works,1997)中认为“……塞尔只是在探索有关英语单词理解的事实……”人们不愿意使用这个词,除非适用某些刻板条件……”但是,平克声称,从科学角度来说,没有任何危险。平克反对塞尔诉诸“大脑的因果力量”,指出因果力量的明显轨迹是“进行正确信息处理的互连模式”。平克引用了一个科幻故事来结束他的讨论,在这个故事中,外星人在解剖学上与人类截然不同,他们无法相信一旦人类发现我们的脑袋里装满了肉,他们就能真正思考。外星人的直觉是不可靠的——想必我们的直觉也可能如此。
显然,CRA 开启了理解语言所需的功能。 Schank 1978 澄清了他认为自己的程序可以做什么的主张:“我们所说的‘理解’是指 SAM(他的程序之一)可以创建一个相互关联的概念化因果链,代表每个故事中发生的事情。”这是对“理解”的细致入微的理解,而中文室思想实验并不是开启对“理解”的技术理解,而是我们理解“汉堡包”这样的词时对我们普通能力的直觉。事实上,到了 2015 年,尚克已经摆脱了弱“理解”的感觉,他认为没有计算机能够“理解你告诉它的东西”,而 IBM 的 WATSON“不知道它在说什么”。尚克的程序可能会获得正确的链接,但可以说不知道链接的实体是什么。是否存在取决于概念是什么,请参见第 5.1 节。此外,当谈到对语言的理解时,我们可能对不同的事物有不同的标准——对狗和幼儿来说更宽松。有些东西理解一种语言“un poco”。 Searle (1980) 承认理解是有一定程度的,但他说,重要的是存在明显的不理解情况,人工智能程序就是一个例子:“计算机理解不仅仅是(就像我对德语的理解)部分或不完整;它是零。”
一些人工智能的捍卫者还担心我们对理解的理解如何影响中文室的争论。人工智能研究人员西蒙和艾森斯塔特(Simon and Eisenstadt,2002)在论文《理解的中国房间》中指出,尽管塞尔驳斥了“逻辑强人工智能”,即通过图灵测试的程序必然能够理解的论点,但塞尔的论点并没有质疑“经验主义”强人工智能”——这一论点认为,有可能对计算机进行编程,使其令人信服地满足普通的理解标准。然而,他们认为,“如果不使用‘理解’一词的定义来提供判断假设是真是假的测试,就不可能解决这些问题”。他们引用了 W.V.O.蒯因的《言与物》表明,将理解归因于人类总是存在经验上的不确定性。 “中国屋”是聪明汉斯的把戏(聪明汉斯是一匹马,它似乎能给出简单算术问题的答案,但人们发现汉斯可以从训练师那里察觉到无意识的暗示)。同样,房间里的那个人不懂中文,仔细观察就会暴露。 (西蒙和艾森斯塔特没有解释如何做到这一点,或者它将如何影响论证。)西蒙和艾森斯塔特引用鲁道夫·卡尔纳普的著作,认为理解不仅仅是表现出某些行为,而是使用“意图” ” 确定扩展,并且人们可以在实际程序中看到它们确实使用了适当的内涵。他们讨论了三个实际的人工智能程序,并捍卫了它们的各种心态归因,包括理解,并得出计算机理解的结论;他们“通过将单词和其他语言结构与通过感官刺激检测到的外延联系起来来学习内涵”。由于我们可以准确地看到机器是如何工作的,“事实上,更容易确定机器表现出理解力,而确定人类表现出理解力......”因此,他们得出结论,实证强人工智能的证据是压倒性的。
同样,丹尼尔·丹尼特 (Daniel Dennett) 在 1980 年对塞尔论点的最初回应中称其为“直觉泵”,这是他在与道格拉斯·霍夫斯塔德 (Douglas Hofstader) 讨论 CRA 时提出的术语。 Sharvy 1983 也回应了这一抱怨。 Dennett 经过深思熟虑的观点(2013 年)是,CRA“显然是一个错误且具有误导性的论点……”。 (第 320 页)。 Paul Thagard(2013)提出,对于哲学中的每一个思想实验,都存在一个平等且相反的思想实验。 Thagard认为直觉是不可靠的,CRA就是一个例子(事实上CRA现在已经被自动机器人汽车的技术反驳了)。丹尼特详细阐述了我们对情报直觉的担忧。 Dennett 1987(《快速思维》)对中文室运行速度缓慢表示担忧,其他几位评论员也加入了他的行列,包括蒂姆·莫德林 (Tim Maudlin)、大卫·查默斯 (David Chalmers) 和史蒂文·平克 (Steven Pinker)。中文室的运营者最终可能会对中文问题给出适当的答案。但思维迟钝的人是愚蠢的,不聪明的——而且在野外,他们很可能会死掉。丹尼特认为“速度……是智力的‘本质’。如果你不能足够快地找出不断变化的环境的相关部分来保护自己,那么无论你多么复杂,你实际上都不是聪明的”(326)。因此,丹尼特将智能与当前环境的处理速度相关联。
Tim Maudlin (1989) 不同意。莫德林考虑了其他作者指出的时间尺度问题,并得出与丹尼特相反的结论,即计算系统的极端缓慢并不违反思维或意识的任何必要条件。此外,塞尔的主要主张是关于理解,而不是智力或机智。如果我们遇到处理信息的速度比我们快一千倍的外星人,这似乎并不能说明我们理解语言的能力很慢。
Steven Pinker (1997) 也认为塞尔依赖于未经训练的直觉。平克赞同 Churchlands (1990) 的反例,即挥动磁铁而不产生光的类似思想实验,并指出这一结果不会反驳麦克斯韦关于光由电磁波组成的理论。平克认为关键问题是速度:“思想实验将波减慢到我们人类不再将它们视为光的范围。通过相信我们在思想实验中的直觉,我们错误地得出快速波也不可能是光的结论。同样,塞尔将心理计算速度减慢到我们人类不再认为它是理解的范围(因为理解通常要快得多)”(94-95)。塞尔关于房间的结论的支持者霍华德·加德纳(Howard Gardiner)对于理解也提出了类似的观点。加德纳在他的著作《心灵的新科学》(The Mind’s New Science,1985,171-177)中讨论了“中文房间”的争论。加德纳考虑了对“中文房间”论点的所有标准答复,并得出结论,塞尔关于该房间的说法是正确的:“……“理解”这个词在“中文房间”的情况下被过度延伸了……” (175)。
因此,这群批评者中的一些人认为,速度会影响我们将智力和理解归因于缓慢系统的意愿,例如中文室中的系统。结果可能只是我们对中文房间的直觉是不可靠的,因此房间里的人在执行该程序时可能会理解中文,尽管直觉相反(Maudlin 和 Pinker)。或者,缓慢可能标志着房间中的模拟与快速计算机所做的事情之间的关键区别,因此人并不聪明,而计算机系统却很聪明(丹尼特)。
4.6 人工智能的进步
甚至到了 2001 年,Robert Damper [2001,其他互联网资源]就认为 CRA 毫无用处,而且可能有害,因为“Searle 和其他人似乎乐于假设——中国‘理解’计划的存在能够通过图灵测试……远远超出了人工智能和计算机技术当前的能力,相当于科幻小说。我们能从这样一个奇特的概念中学到什么?除了诉诸常识之外,没有任何现实的方法可以解决出现的任何悖论,而且我们从量子力学的例子中知道这是多么容易出错。” 2015 年,史蒂文·平克 (Steven Pinker) 表示,“15 到 25 年后,人类水平的人工智能仍然是标准,就像一直以来一样……”
塞尔的论点是在 20 世纪 70 年代末提出的,距晶体管计算机问世以及首届人工智能会议(1956 年)仅 20 年多一点。此后的几十年里,与 CRA 和许多答复相关的领域取得了巨大进步:计算速度和能力、机器人、人工智能、神经网络,以及自然语言处理。
2022 年底,基于大型语言模型 (LLM) 的人工智能系统受到了广泛关注,从学者到论文写作学生,以及许多其他语言能力很重要的职业。 Shank 的程序和数据库是手工构建的,因此(一旦调试!)他们关于餐馆的一两句话的高度有限的输出很少(如果有的话)让程序员感到惊讶,而 LLM 系统会爬行万维网并可以生成段落在段落之后,这对他们的编码人员来说可能都是新闻。
这对 CRA 及其答复有什么影响吗? Sabine Hossenfelder (2023) 认为这些聊天机器人理解他们所说的一些内容,即它们的理解与人类理解量子力学的意义相同。我们可以很好地理解这些方程来进行预测,但我们并没有深入理解为什么这些方程是这样的。 AI 芯片制造商 Nvidia 的首席执行官 Jensen Huang(2024 [其他互联网资源])认为没有这样的限制:“生成式 AI 是我们这个时代最具影响力的发明,就像电力和互联网一样,它影响着每个人、每个行业。 ……法学硕士,学会了从大量文本中理解人类语言、先验知识,甚至一些常识。”
毫无疑问,人工智能代理现在已经有了语言能力,并且可以提供有用的信息。如果这些模型能够比诊断医生更好地诊断疾病,比散文家更好地写论文,比律师更好地论证法律,比老师更好地回答问题,那么说“但他们什么都不懂”似乎是可悲的酸葡萄心理。那么人工智能的进步是否驳斥了塞尔呢?在 2024 年被问到“你懂英语单词吗”时,ChatGPT 本身回答“是的,我懂英语单词,并且可以处理和回应它们。如果您有任何疑问或需要特定帮助,请告诉我!”如果问什么是汉堡包,塞尔的例子是自然语言程序无法理解的,这是很啰嗦的。它很容易解释汉堡包和“汉堡包”这个词之间的区别。但当被问及它如何理解英语时,ChatGPT 回答“我通过模式和上下文的组合来理解英语语义。”当被直接问到时,“约翰·塞尔认为你无法从语法中获得语义——他是对的吗?”回应是“塞尔的论点凸显了一个关键的局限性:仅靠语法不足以完全捕获语义。虽然句法规则提供了构建句子的框架,但理解含义涉及额外的上下文、解释和现实世界知识层。”以及“Searle 的论点不适用于 ChatGPT 吗?”我们得到“是的,John Searle 的论点确实适用于像 ChatGPT 这样的系统。 …ChatGPT 使用经过训练的大量文本中的模式和规则来生成响应。它的运作基于单词和短语之间的统计相关性,模仿句法结构。 ……ChatGPT 并不能真正理解人类意义上的意义。它根据所学到的模式生成看似有意义的文本,但它缺乏对超出其训练预测范围的内容或上下文的真正理解。”