中国房间争论(一)
1. 概述
二、历史背景
2.1 莱布尼茨磨坊
2.2 图灵造纸机
2.3 中华民族
3. 中国房间争论
4. 对中文室争论的答复
4.1 系统回复
4.2 机器人回复
4.3 大脑模拟器回复
4.4 其他人的回应
4.5 直觉的回答
4.6 人工智能的进步
5.更大的哲学问题
5.1 语法和语义
5.2 意向性
5.3 心灵与身体
5.4 模拟、复制和进化
结论
参考书目
学术工具
其他互联网资源
相关条目
1. 概述
人工智能 (AI) 领域的工作已开发出可以击败世界象棋冠军、控制自动驾驶车辆以及击败电视智力问答节目 Jeopardy 中最优秀的人类棋手的计算机程序。到 2022 年,人工智能已经从翻译和回答问题的个人数字助理(Alexa、Siri、Google Assistant)发展到使用大型语言模型 (LLM),可以写诗、大学水平论文和计算机程序,并可以通过旨在筛选学生的考试。进入研究生院、法律学习和实践以及其他“学习职业”的人。我们的经验表明,下国际象棋或危险边缘、写论文、通过困难的考试以及进行对话,都是需要理解和智力的活动。计算机在对话、撰写论文和通过困难考试方面的能力是否表明计算机可以理解语言并且具有智能?进一步发展会导致数字计算机完全匹配甚至超越人类智能吗?
计算先驱理论家之一艾伦·图灵(Alan Turing,1950)相信这些问题的答案是“是”。图灵提出了现在所谓的“图灵测试”:如果一台计算机能够在在线聊天中模仿人类,我们就应该承认它是智能的。到 20 世纪 70 年代末,一些人工智能研究人员声称计算机已经至少能够理解一些自然语言。 1980 年,加州大学伯克利哲学家约翰·塞尔提出了一个简短且广泛讨论的论点,旨在最终表明数字计算机现在或将来都不可能理解语言或思考
塞尔认为,检验心理理论的一个好方法,比如认为可以通过这样做来创造理解的理论,就是想象一下实际做该理论所说的会创造理解的事情会是什么样子。 Searle (1999) 简洁地总结了他的中文房间论证(以下简称 CRA):
想象一下,一个不懂中文的母语为英语的人被锁在一个房间里,房间里装满了中文符号(数据库)和一本操作符号的说明书(程序)。想象一下,房间外面的人发送了其他中文符号,房间里的人不知道这些符号是中文问题(输入)。想象一下,按照程序中的说明,房间里的人能够传递出中文符号,这些符号是问题的正确答案(输出)。该程序使房间里的人能够通过图灵测试来理解中文,但他却不懂中文。
塞尔接着说:“争论的要点是:如果房间里的人不能在执行理解中文的适当程序的基础上理解中文,那么任何其他数字计算机也不能仅仅以此为基础,因为没有计算机作为计算机,拥有人类所没有的一切。”
在引入 CRA 三十年后,Searle 2010 从意识和意向性方面描述了结论:
几年前,我通过所谓的“中国房间论证”证明,计算机程序的实施本身不足以产生意识或意向性(Searle 1980)。计算纯粹是形式上或句法上定义的,而心灵有实际的心理或语义内容,我们不能仅通过句法运算而从句法到语义。从技术上来说,“相同实现的程序”这一概念定义了一个独立于任何特定物理实现指定的等价类。但这样的规范必然忽略了大脑引起认知过程的生物学特定能力。例如,一个系统(例如我)不会仅仅通过模拟汉语使用者行为的计算机程序的步骤来理解汉语(第 17 页)。
“意向性”是一个技术术语,指的是精神和某些其他事物的特征,即关于某事。因此,对一块巧克力的渴望以及对现实世界曼哈顿或虚构的哈利·波特的想法都表现出意向性,这将在下面的 5.2 节中更详细地讨论。
塞尔从机器理解转向意识和意向性的观点并没有得到 1980 年原始论点的直接支持。然而,对结论的重新描述表明了塞尔后来对意义和意向性的论述中理解与意识之间的密切联系。那些不接受塞尔将理解与意识联系起来的人可能会认为,运行程序可以创造理解,但不一定创造意识,相反,一个奇特的机器人可能具有狗级的意识、欲望和信仰,但不一定理解自然语言。
在讨论意向性时,塞尔试图发展他的论点的更广泛的含义。它旨在反驳理解心灵的功能主义方法,即认为心理状态是由其因果作用定义的,而不是由扮演这些角色的东西(神经元、晶体管)定义的。这一论点尤其反对被称为“心灵计算理论”的功能主义形式,该理论将心灵视为信息处理系统。由于其范围广,以及塞尔清晰而有力的写作风格,“中文室”论证可能是自图灵测试以来认知科学领域讨论最广泛的哲学论证。到 1991 年,计算机科学家帕特·海斯 (Pat Hayes) 将认知科学定义为正在进行的反驳塞尔论点的研究项目。认知心理学家史蒂文·平克(Steven Pinker,1997)指出,到 20 世纪 90 年代中期,已经发表了 100 多篇关于塞尔思想实验的文章,而且对它的讨论在互联网上如此普遍,以至于平克发现这是一个令人信服的理由,将他的名字从实验中删除。所有互联网讨论列表。
这种兴趣并没有消退,而且与争论的联系范围已经扩大。在谷歌学术上搜索“中文房间论证”会产生数千条结果,其中包括将论证与主题联系起来的论文,这些主题包括具身认知、戏剧、谈话心理治疗、后现代真理观和“我们的后人类未来”等。作为团体或集体思想的讨论,以及直觉在哲学中的作用的讨论。 2007 年,一家英国游戏公司取名为“The Chinese Room”,以开玩笑地纪念“……塞尔对人工智能的批评——你可以创建一个给人智能印象的系统,而无需任何实际的内部智能。”这种广泛的讨论和影响是对论证的简单清晰和中心地位的致敬。
二、历史背景
2.1 莱布尼茨磨坊
塞尔的论点有四个重要的前因。第一个是哲学家和数学家戈特弗里德·莱布尼茨(Gottfried Leibniz,1646-1716)提出的论点。这个论点通常被称为“莱布尼茨磨坊”,出现在莱布尼茨单子论的第 17 节中。与塞尔的论证一样,莱布尼茨的论证也采取了思想实验的形式。莱布尼茨要求我们想象一个物理系统,一台机器,它的行为方式据说可以思考并拥有经验(“感知”)。
17. 此外,必须承认,知觉以及依赖知觉的事物在机械基础上,即通过图形和运动,是无法解释的。假设有一台机器,其构造能够思考、感觉和感知,那么它可以被设想为尺寸增加,同时保持相同的比例,这样人们就可以像进入磨坊一样进入它。既然如此,我们在考察其内部时,应该只发现相互作用的部分,而不是任何可以用来解释知觉的东西。因此,必须在简单物质中而不是在化合物或机器中寻求感知。 [罗伯特·拉塔翻译]
请注意,莱布尼茨在这里的策略是将机器的明显行为(这可能看起来是有意识思维的产物)与机器内部运行的方式进行对比。他指出,这些内部机械操作只是从一个点移动到另一个点的部件,因此没有任何东西是有意识的或可以解释思考、感觉或感知的。对于莱布尼茨来说,物理状态不足以构成精神状态,也不能构成精神状态。
直到今天,意识的奥秘依然存在。人们仍然可以遵循莱布尼茨的建议,想象一个大脑变得如此之大,以至于人们可以在神经元之间行走,而人们最多只能看到神经递质的喷射,而没有任何东西可以解释意识体验,包括理解语言的体验。莱布尼茨的论点,即无论物理系统做什么,都不会有意识(因此唯物主义被驳斥),与塞尔的主张平行,即无论有什么句法处理,都不会有对意义的理解(因此唯物主义被驳斥)。强大的人工智能主张被驳斥)。
2.2 图灵造纸机
“中国屋”论点的第二个前提是造纸机的想法,即由人类实现的计算机。这个想法可以在艾伦·图灵的著作中找到,例如《智能机械》(1948)。图灵在那里写道,他为“纸机”下棋编写了一个程序。造纸机是一种程序,是一系列像计算机程序一样的简单步骤,但用自然语言(例如英语)编写,并由人类执行。纸质下棋机的操作员不需要(否则)知道如何下棋。操作员要做的就是按照棋盘上的指示进行走棋。事实上,操作员甚至不需要知道他或她正在参与下棋——输入和输出字符串,例如“N-QB7”,对于造纸机的操作员来说不需要任何意义。
作为二战破译德国军事加密项目的一部分,图灵为人类“计算机”编写了英语程序,当时这些专业工人被称为这些人类计算机,而这些人类计算机不需要知道他们执行的程序在做什么。
人加纸机器的想法很重要,原因之一是它已经引发了与 CRA 类似的关于代理和理解的问题。假设我独自一人在一个封闭的房间里,并按照说明书操作符号串。因此,我实现了一台造纸机,它可以生成诸如“N-KB3”之类的符号字符串,我将这些符号字符串写在纸上,然后从门下溜到房间外的某个人那里。进一步假设在进入房间之前我不会下棋,甚至不知道有这样一个游戏。然而,我不知道的是,我在房间里运行图灵的国际象棋程序,我生成的符号串是国际象棋记谱,被房间外的人视为国际象棋的走法。他们通过将自己的走法符号滑回门下进入房间来回复。如果您看到的只是房间外棋盘上显示的最终走棋顺序,您可能会认为房间里的某个人非常了解如何下棋。我现在知道怎么下棋了吗?或者是系统(由我、手册和我在其上操纵符号串的纸张组成)在下棋?如果我记住程序并在脑海中进行符号操作,那么我是否知道如何下国际象棋,尽管现象学很奇怪?一个人的意识状态对他是否会下棋重要吗?如果数字计算机实现相同的程序,那么计算机(或程序或计算机加程序)会下棋,还是只是模拟这个?
到了本世纪中叶,图灵乐观地认为,新开发的电子计算机本身很快就能表现出明显的智能行为,回答用英语提出的问题并进行对话。图灵(1950)提出了现在所谓的图灵测试:如果一台计算机能够在网上聊天中模仿人类,那么它就应该被视为智能的。
塞尔论证的第三个前因是塞尔在伯克利的同事休伯特·德雷福斯的工作。德雷福斯是人工智能研究人员乐观主张的早期批评者。 1965年,德雷福斯在麻省理工学院时,发表了一篇约百页的报告,题为《炼金术与人工智能》。德雷福斯认为,人类精神生活的关键特征无法通过操纵符号的正式规则来捕捉。德雷福斯于 1968 年搬到伯克利,并于 1972 年发表了他的扩展评论《计算机不能做什么》。德雷福斯的主要研究兴趣是欧陆哲学,重点关注意识、意向性、直觉的作用以及塑造我们的理解的不明确的背景。德雷福斯指出了人工智能中的几个有问题的假设,包括大脑就像数字计算机的观点,以及理解可以被编纂为明确规则的假设。
然而到了 20 世纪 70 年代末,随着计算机变得更快、更便宜,新兴的人工智能社区中的一些人开始声称他们的程序可以使用背景信息数据库来理解英语句子。其中一位耶鲁大学研究员 Roger Schank(Schank & Abelson 1977)的工作引起了 Searle 的注意。 Schank 的团队开发了一种称为“概念表示”的技术,该技术使用“脚本”来表示概念关系(与概念角色语义相关)。 Searle 的论点最初于 1980 年提出,专门作为对“Schank 等人工智能程序确实能够理解它们所回应的句子”这一说法的回应。
2.3 中华民族
“中文室”论证的第四个前提是涉及无数人类充当计算机的思想实验。 1961 年,阿纳托利·米克维奇(Anatoly Mickevich,化名 A. Dneprov)发表了《游戏》(The Game),讲述了一个充满 1400 名数学学生的体育场被安排充当数字计算机的故事(参见 Dneprov 1961 和 Mickevich 1961,其他互联网中列出的英文翻译)资源)。在 4 小时内,每个学生重复对从附近的人那里收到的二进制数进行一些计算,然后将二进制结果传递给附近的人。第二天,他们得知他们集体将葡萄牙语的一个句子翻译成他们的母语俄语。米克维奇的主角总结道:“我们已经证明,即使是最完美的机器思维模拟也不是思维过程本身,而是生命物质运动的高级形式。”
显然独立地,在关于心智和认知的功能主义理论的早期讨论中也出现了类似的考虑(参见下面第 5.3 节的进一步讨论),功能主义者认为心理状态是由它们在系统中发挥的因果作用来定义的(就像门挡一样)是由它的用途来定义的,而不是由它的材质来定义的)。功能主义的批评者很快就将其所宣称的多重可实现性的优点转而反对它。
通过强调因果或信息处理作用作为精神状态的本质,功能主义使我们能够理解具有不同生理学的生物(例如外星人),从而具有与人类相同类型的精神状态(例如疼痛)。但有人指出,如果外星外星人用其他一些复杂的系统代替大脑,能够实现构成精神状态的功能特性,那么,想必那些不太像人类大脑的系统也能实现这一点。功能主义的计算形式认为,每种心理状态的定义作用是其在信息处理或计算中的作用,特别容易受到这种策略的影响,因为具有简单组件的各种系统在计算上是等效的(例如,参见 Maudlin 1989)讨论用水桶建造的计算机)。批评者质疑这些无机系统是否真的可能具有精神状态或感到疼痛。
Daniel Dennett (1978) 报道称,1974 年,劳伦斯·戴维斯 (Lawrence Davis) 在麻省理工学院举办了一场研讨会,他在会上提出了这样一种非正统的实现方式。丹尼特将戴维斯的思想实验总结如下:
让功能主义的疼痛理论(无论其细节如何)通过一个系统来实例化,该系统的子组件不是 C 纤维和网状系统,而是电话线和有人值守的办公室。也许它是一个巨大的机器人,由居住在其中的一群人类控制。当该理论的疼痛功能特征条件现在得到满足时,我们必须说,如果该理论是正确的,那么机器人就处于疼痛之中。也就是说,真正的痛苦,就像我们自己的痛苦一样真实,将由于这些官僚团队执行其适当职能而可能无私且务实的活动而存在。
在同样于 1978 年出版的《功能主义的麻烦》中,内德·布洛克 (Ned Block) 设想整个中国人口都会执行大脑中神经元的功能。这种情景后来被称为“中华民族”或“中国体育馆”。我们可以假设,每个中国公民都会获得一份电话号码清单,并且在实施日的预设时间,指定的“输入”公民将通过拨打其电话清单上的电话号码来启动该流程。当任何公民的电话响起时,他或她就会给他或她名单上的人打电话,而这些人又会联系其他人。无需交换电话留言;所需要的只是调用的模式。呼叫列表的构建方式使得呼叫模式实现了与某人处于精神状态(例如疼痛)时大脑神经元之间发生的激活模式相同的模式。电话的功能与神经元导致彼此放电的功能相同。布洛克主要对感受性感兴趣,特别是,是否有可能认为中国人口可能集体处于痛苦之中,而人口中没有个体成员经历过任何痛苦,但思想实验适用于任何精神状态和操作,包括理解语言。
因此,布洛克的思想实验,就像戴维斯和丹尼特的思想实验一样,是一个由许多人组成的系统,而不是一个人的系统。重点是意识,但就塞尔的论证也涉及意识而言,思想实验与塞尔的密切相关。 Cole (1984) 试图通过进行一个思想实验来向相反的方向泵送直觉,在该实验中,他的每个神经元本身都是有意识的,并且充分意识到自己的行为,包括被神经递质浇注、经历动作电位以及向其邻居喷射神经递质。科尔认为,他的有意识神经元会发现,它们的集体活动产生了神经元所缺乏的意识和其他认知能力,包括理解英语,这是难以置信的。也就是说,我的神经元活动所达到的精神状态是我的精神状态,而不是我任何一个神经元的精神状态——所以如果我的神经元(仅)用中文思考,那并不能表明它们不会集体产生某人——我——懂英语但不懂中文。)科尔认为,实施系统的直觉是不值得信任的。
3. 中国房间争论
1980 年,约翰·塞尔 (John Searle) 在《行为与脑科学》杂志上发表了《思想、大脑和程序》。在这篇文章中,塞尔阐述了这一论点,然后对他之前在各个大学校园演讲期间提出的六种主要反对意见进行了回应(见下一节)。此外,塞尔在BBS上的文章与27名认知科学研究人员的评论和批评一起发表。在这 27 条评论之后,塞尔对批评者做出了回应。
在其出版后的几十年里,“中文室”的争论成为了很多讨论的主题。 1984 年,塞尔在《思想、大脑和科学》一书中提出了“中文房间”的论点。 1990 年 1 月,流行期刊《科学美国人》将这场辩论带到了普通科学读者面前。塞尔在他的文章《大脑的思维是计算机程序吗?》中纳入了中文房间论证,塞尔的文章之后又发表了一篇回应文章《机器能思考吗?》,由哲学家保罗·丘奇兰和帕特里夏·丘奇兰撰写。此后不久,塞尔与另一位著名哲学家杰里·福多(Jerry Fodor,罗森塔尔(Rosenthal)编辑,1991)就“中文室”发表了一篇交流文章。
争论的核心是塞尔想象自己遵循一个用英语编写的符号处理程序(这就是图灵所说的“造纸机”)。坐在房间里的讲英语的人(塞尔)按照英语指令操作中文符号,而计算机“遵循”(在某种意义上)用计算语言编写的程序。人通过遵循符号操作指令产生理解汉语的表象,但并不因此而理解汉语。由于计算机只是做人类所做的事情——仅根据语法来操作符号——没有计算机能够仅仅通过遵循程序来真正理解中文。
这个狭隘的论点密切基于中文房间的场景,专门针对塞尔所谓的“强人工智能”的立场。强人工智能认为,经过适当编程的计算机(或程序本身)可以理解自然语言,并且实际上具有与它们模仿的人类行为类似的其他心理能力。根据 Strong AI 的说法,这些计算机确实可以智能地下棋、做出巧妙的动作或理解语言。相比之下,“弱人工智能”是一种更为温和的说法,即计算机仅在心理学、语言学和其他领域有用,部分原因是它们可以模拟心理能力。但弱人工智能并没有声称计算机实际上理解或具有智能。 “中文室”的论点并不是针对弱人工智能,也不是为了证明机器无法思考——塞尔说,大脑是机器,大脑也会思考。这个论点针对的是这样的观点:对符号的形式计算可以产生思想。
我们可以将狭隘的论点总结为反对强人工智能的反证法,如下所示。假设 L 是一种自然语言,我们可以说“L 程序”是用 L 进行流利对话的程序。计算系统是可以运行程序的任何系统,无论是人类还是其他系统。