中国房间争论(五)
因此,矛盾的是,系统似乎理解它不理解的情况。然而,它没有注意到这些说法与几分钟前的输出不一致。所以我们还没有到那一步。一个在回答问题时经过仔细论证否认它可以理解任何东西的系统将无法通过图灵测试。然而,这个问题可能会在未来得到解决,这样法学硕士系统将避免所谓的“言语自杀”(例如“这是你问题的答案,但我不明白你的问题”)。结果可能是,如果思想实验认为在所有情况下都像人类一样熟练地使用语言的系统无法真正理解,那么我们就无法测试“真正”的理解,并且它对我们的目的没有任何帮助。我们使用语言。 “真正”的理解变成了附带现象:不可察觉、因果惰性、无关紧要。
5.更大的哲学问题
5.1 语法和语义
塞尔认为中文室思想实验支持了一个更大的观点,这解释了中文室未能产生理解。塞尔认为,计算机执行的程序只是语法问题。计算机操作是“形式化”的,因为它们仅响应符号串的物理形式,而不响应符号的含义。另一方面,心灵有具有意义和心理内容的状态。我们将意义与语言中的单词或符号联系起来。我们对标志做出反应是因为它们的含义,而不仅仅是它们的外表。简而言之,我们明白。但是,根据塞尔的说法,这是关键点:“语法本身不足以构成语义,也不能构成语义。”因此,尽管计算机可能能够操纵语法以对自然语言输入产生适当的回应,但他们不了解收到或输出的句子,因为它们无法将含义与单词相关联。
Searle(1984)提出了一个三个前提的论点,即由于语法不足以用于语义,因此程序无法产生思维。
程序纯粹是正式的(句法)。
人类的思想具有心理内容(语义)。
语法本身既不是语义内容的本构,也不是足够的。
因此,程序本身并不足以进行思维的构成。
中国房间认为实验本身就是对第三个前提的支持。句法操纵不足以说明意义或思想是一个重要的问题,这是一个重要的问题,具有比AI或理解归因更广泛的含义。精神的重要理论认为,人类认知通常是计算的。以一种形式认为,思想涉及符号以其物理特性的方式进行操作。在另一种连接派帐户上,计算在“亚符号”状态下。如果Searle是正确的,不仅AI强,而且这些理解人类认知的主要方法是误导的。
正如我们已经看到的那样,塞尔认为,中国房间的场景表明,一个人不能仅凭语法获得语义。在符号逻辑系统中,一种人工语言,为语法提供了规则。语义(如果有的话)稍后出现。 Logician首先指定了基本符号集和一些操纵字符串生成新的符号(“形成良好的Fomulas”)。这些规则纯粹是句法 - 它们仅根据其语法或形式而应用于符号字符串。必须单独提供符号系统的语义(如果有)。而且,如果人们希望表明句法操作和语义之间的有趣的额外关系(例如,符号操作都保留真理,则必须提供一些复杂的元数据来展示这一点。因此,从表面上讲,语义与人工语言的语法非常独立,并且不能仅凭语法获得语义。 “正式的符号本身永远不足以容纳精神内容,因为根据定义,这些符号没有含义(或解释或语义),除了系统外部的某人将其赋予他们的符号”(Searle 1989,45)。
Searle在这段经文中对意义的识别很重要。 Searle的观点显然是逻辑学家正式惰性系统的正确性。逻辑学家必须对这些符号进行语义解释。当我们从形式系统转变为计算系统时,情况就会更加复杂。正如Searle的许多批评家(例如Cole 1984,Dennett 1987,Boden 1988和Chalmers 1996)所指出的那样,运行程序的计算机与“单独语法”不同。计算机是一种非常复杂的电子因果系统(现在有些具有与人脑中神经元数量相当的晶体管计数)。系统中的状态变化是物理的。可以解释物理状态,例如电压是句法1和0,但内在的现实是电子的,语法是“派生的”,这是别人解释的产物。各州是由程序员指定的,但是当在运行机器中实现时,它们是直接或间接嵌入现实世界中复杂因果系统的电子状态。这与逻辑学家研究的抽象形式系统完全不同。 Dennett指出,没有“计算机程序”(Searle的语言),例如一个躺在架子上的程序 - 可能会导致任何东西,甚至简单的补充,更不用说精神状态了。该程序必须运行。 Chalmers(1996)提供了一种模仿,其中有理由认为食谱是句法的,语法不足以使其变得笨拙,蛋糕易碎,因此食谱的实施不足以制作蛋糕。实施使一切不同;抽象实体(食谱,程序)决定了嵌入世界较大因果关系中的物理系统的因果力。
丹内特(Dennett,1987)总结了一个问题:“那么,塞尔的观点是:采用一个没有引起精神现象的力量的物质对象(任何物质对象);您无法将其转换为具有仅通过对其进行编程而产生心理现象的对象,而是重新组织其状态之间过渡的条件依赖性。”丹内特的观点恰恰相反:编程“恰恰是可以给人一些思想的东西”。但是丹内特声称,实际上,“从经验上讲,除了有机,人类的大脑以外的任何其他程序都不可能运行正确的程序”(325-6)。
计算机不认识到其二进制数据字符串具有一定的形式,因此与中国房间内的人不同,可以将某些句法规则应用于它们。在计算机内部,没有什么可以从字面上读取输入数据,也没有“知道”符号是什么。取而代之的是,有数百万个改变状态的晶体管。一系列电压导致操作执行。我们人类可能会选择将这些电压解释为二进制数字,而电压将变化为句法操作,但是计算机并未将其操作解释为句法或任何其他方式。因此,也许计算机不需要使对象的语法转移到语义上。它需要从复杂的因果关系转变为语义。此外,也许任何因果系统都可以描述为执行句法操作 - 如果我们将轻方子解释为逻辑“ 0”,而将深色正方形解释为逻辑“ 1”,则可以将厨房烤面包机描述为一种重写逻辑“ 0”的设备s作为逻辑“ 1” s。但是从语法到早餐没有哲学上的问题。
在1990年代,Searle开始使用与这些相关的考虑因素,以争辩说计算观点不仅是错误的,而且缺乏明确的含义。计算或语法是“观察者相关性”,而不是现实的内在特征:“……您可以将计算解释分配给任何事物”(Searle 2002b,p。17),甚至是墙上油漆中的分子。由于没有什么是本质上的计算,因此不能具有将不是观察者相关的精神的科学理论,即计算。 “计算仅相对于某些现象强加了计算解释的剂或观察者。这是一个明显的观点。我应该十年前已经看过它,但我没有。” (Searle 2002b,p.17,最初于1993年发表)。
批评家指出,墙壁不是计算机。与墙不同,一台计算机经历了计划反映的国家过渡(Chalmers 1996,Block 2002,Haugeland 2002)。在他的2002年论文中,Block解决了墙是否是计算机的问题(回答了Searle的指控,即在正式系统上映射的任何东西都是正式系统,而思想却完全不同)。 Block否认某事是否完全取决于我们的解释。块记录Searle忽略了实施系统必须正确的反事实。 Haugeland(2002)的类似观点是,实施将是可靠地执行运营的因果过程,它们必须是正确的因果权。 Block得出结论,Searle的论点失败了,但他承认,他们“确实成功地增强了我们对意图性质及其与计算和代表关系的关系的理解”(78)。
Rey(2002)还解决了Searle的论点,即语法和符号是观察者相关的属性,而不是物理的属性。 Searle从物理学中未定义句法特性(例如逻辑“ 1”)以下事实。但是,雷伊认为,他们并不是观察者相关的。雷伊(Rey)认为,塞尔(Searle)也误解了实现程序是什么。雷伊(Rey)认可查默斯(Chalmers)对普特南(Putnam)的答复:实现不仅是结构映射,而且涉及因果关系,支持反事实。 “这一点经常被遗漏,它具有重复性:在句法上定义的对象可以定义计算可以并且标准地具有语义;只是语义不参与规范。”一个人的状态具有计算组织及其与世界的因果关系的语义。雷伊得出结论:塞尔“根本不考虑功能主义和强大的AI的大量资源。” (222)一个合理的详细故事将削弱从中国房间中系统的浅表草图中得出的负面结论。
约翰·霍格兰(John Haugeland)(2002)认为,处理器必须本质地理解其运行程序中的命令:它按照规范执行它们。 “我们可以理解计算机作为执行程序的唯一方法是将其处理器理解为将程序处方响应为有意义的,”(385)。因此,操作符号对系统具有意义。 Haugeland继续在狭窄和广泛的系统之间进行区分。他认为,数据可以在广泛的系统中具有语义,其中包括传感器产生的外部对象的表示。顺便说一句,傲慢的主张为其他地方争论,真正的情报和语义是“一个非属于人的生活的承诺能力”的前提,即爱(即爱情)(比较史蒂芬·斯皮尔伯格(Steven Spielberg :人工智能)。
塞尔(Searle)声称语法是观察者相关性的,墙壁上的分子可以解释为实施WordStar程序(早期的文字处理程序),因为“分子运动中有一些模式,这是同构的,具有文字星的正式结构”(Searle 1990b,p。27),Haugeland反驳说:“复杂的句法令牌的想法……以书写和阅读的指定过程为前提……。”代币必须系统地生产和可检索。因此,某处没有随机的同构或模式(例如,在某些壁上)会计算,因此语法不是观察者相关的。
关于是否可以从语法获得语义的问题,威廉·拉帕波特(William Rapaport)多年来一直主张“语法语义”,这种观点是一种特殊的语法结构形式,其中符号(例如中文单词)是链接的。对于概念,本身以句法为代表。其他人则认为我们还不在那里。 AI未来主义者(精神机器时代)雷·库兹韦尔(Ray Kurzweil)在2002年的后续书中持有,它是红鲱鱼,专注于传统的符号操纵计算机。库尔茨威尔同意塞尔(Searle)的观点,即现有的计算机不了解语言 - 这证明了他们无法进行令人信服的对话。但是,这种故障并不是基于不同技术的未来计算机的能力。库尔兹维尔声称,西尔(Searle)未能理解未来的机器将使用“混乱的紧急方法”。这一说法似乎与安迪·克拉克(Andy Clark)等连接主义者以及教堂(Churchlands)在1990年的《美国科学美国科学》(Scientific American)文章中所采取的立场相似。
除了Haugeland的说法理解程序说明外,Searle的批评者还可以同意,计算机不了解语法,而不是他们理解语义,尽管像所有因果发动机一样,计算机都具有句法描述。虽然对于程序员来说,通常对机器对待机器,就像执行句法操作一样有用,但并非总是如此:有时角色程序员使用的只是使机器做某事的开关,例如,在计算机上制作给定的像素显示红色,或制作汽车变速箱换档。因此,尚不清楚Searle说数字计算机只是“操纵符号的设备”时,他是正确的。计算机是复杂的因果引擎,句法描述对于构造机器中的因果互连很有用。 AI程序员面临许多棘手的问题,但是人们可以认为他们不必从语法中获得语义。如果他们要获得语义,则必须从因果关系中获得它。
已经开发出了两种主要的方法来解释因果关系的意义。内部主义的方法,例如Schank和Rapaport的概念表示方法,以及概念上的角色语义,认为物理系统的状态将其语义从因果关系到同一系统的其他状态。因此,计算机的状态可能代表“猕猴桃”,因为它连接到“鸟”和“无飞”节点,也可能与原型猕猴桃的图像相连。代表“无飞行”财产的状态可能会从否定操作员修改“能够空中自我推广的能力”的代表中获得其内容,从而形成一个庞大的连接概念网络,这是一种精神词典。
由丹尼斯·史具有丹尼斯·斯帕克(Dennis Stampe),弗雷德·德雷斯克(Fred Dretske),希拉里·普特南(Hilary Putnam),杰里·福多尔(Jerry Fodor),露丝·米利肯(Ruth Millikan)等开发的外部主义方法,认为物理系统的状态通过与他们所代表的外部现实的因果关系来获得其内容。因此,粗略地,具有猕猴桃概念的系统是一个具有代表猕猴桃在外部环境中存在的状态的系统。这种奇异果代表性的状态将是与猕猴桃的存在有关的国家。根据系统的不同,代表状态的猕猴桃可以是大脑的状态,也可以是电机等电气设备,甚至是液压系统的元素。内部代表状态反过来又可以在确定系统行为方面发挥因果作用。例如,雷伊(Rey,1986)认可沿着丹尼斯·斯坦(Dennis Stampe)(1977)和福多尔(Fodor)的《心理学》(Psychosemantics)作品的指标语义。这些语义理论在适当的因果关系与世界的适当因果关系中找到内容或含义非常符合机器人的答复。机器人体内的计算机可能只有因果关系,可以使其内部的句法状态具有代表环境中事物状态的语义属性。
因此,关于语义如何依赖因果关系,至少有两个理论家族(以及两者的婚姻,如1986年的婚姻)。这两者都试图提供实施中立的帐户的尝试:无论系统的制造如何,适当组织的因果系统的状态都可以满足内容。在这些理论上,计算机可能具有意义的状态。计算机没有必要意识到自己的状态,并且知道它们具有意义,也没有任何局外人欣赏国家的含义。在这些帐户中的任何一个上,含义都取决于(可能是复杂的)因果关系,而数字计算机则是具有具有如此复杂因果关系依赖性的状态的系统。应当指出的是,Searle不赞成这些语义理论。取而代之的是,塞尔(Searle)对语言意义的讨论通常以意图概念为中心。
5.2 意向性
意图是关于某事,有内容的特性。在19世纪,心理学家弗朗兹·布伦塔诺(Franz Brentano)从中世纪的哲学中重新介绍了这个术语,并认为意图是“精神的标志”。信念和欲望是故意的国家:他们具有命题内容(一个人从不相信或欲望,他们认为p或欲望是p,在代表命题代表“ p”的句子或条款的地方)。塞尔对意图的看法很复杂;这里的相关性是,他在真正的精神状态的原始或固有意图和语言的意图中有所区别。书面或口语仅具有故意性,即派生的意图,就某人解释而言。看来,从西尔(Searle)看来,原始意图至少必须有意识。然后,塞尔(Searle)认为原始意图和派生的意图之间的区别适用于计算机。我们可以将计算机的状态解释为具有内容,但是国家本身没有原始的意图。尽管Fodor与Searle有很多不同,但许多哲学家都赞同这种有意的二元论,包括Sayre(1986)甚至Fodor(2009)。
玛格丽特·博登(Margaret Boden)在她1988年的《心灵的计算机模型》(The Mind of The Mind)的一部分中指出,故意性并不理解 - 理由不要对打开意图的论点进行过多的重视。此外,就我们了解大脑而言,我们专注于信息功能,而不是大脑的未指定因果力量: ”。(241)Searle认为故意是大脑的因果力,是由生物过程独特产生的。戴尔·雅克(Dale Jacquette)1989年反对降低故意性 - 他说,意图是“不可质,不可还原的原始概念”。但是,大多数AI同情者都将意图,对信息,与信息联系起来,非生物状态也可以携带信息,也可以像大脑状态一样。因此,许多对Searle的反应者认为,他表现出色的沙文主义,使大脑理解,但是即使在原则上,具有可比信息处理能力的硅制成的系统也不能。出现了该问题两面的论文,例如J. Maloney 1987年的论文“正确的东西”,《捍卫Searle》和R. Sharvy的1983年批评,“不是肉,这是动议”。诸如Kurzweil(1999年,参见Richards 2002)之类的AI支持者继续认为,AI系统可能具有理解,智力,意识和意图性等心理特性,并且将超越这些领域的人类能力。
对西尔(Searle)立场的其他批评者比博登(Boden)更加认真地对待意图,但否认他在原始和派生的意图之间的二元论区分。丹内特(Dennett,1987,例如)认为,所有意图性都是在意图的归属中得出的 - 对动物,其他人,甚至我们自己 - 纯粹是工具性的,允许我们预测行为,但它们不是对内在特性的描述。正如我们已经看到的那样,丹内特(Dennett根据丹内特的说法,只有那种。机器可以是有意的系统,因为有意的解释可以预测机器的行为。丹内特还建议,塞尔将意图与意识的意识混为一谈。在他的语法语义论点中,“ Searle显然使语法中语义的不足性的说法与关于语法意识的不可分割性的主张相混淆了”(336)。对意识的强调迫使我们从第一人称的角度思考事物,但是Dennett 2017继续施加主张,即如果我们想了解这种心理,这是一个根本的错误。
我们可能还会担心Searle将意义和解释混为一谈,而Searle的原始或不足的意图只是二阶故意性,这是故意对象所代表或含义的代表。 Dretske和其他人将故意视为基于信息。一个世界的一种状态,包括计算机中的一个状态,可能会携带有关世界其他州的信息,而这种有关性的信息是国家独立的特征。因此,认为有意义的意义归因是意图的根源是一个错误。
其他人则指出,西尔的讨论表明,随着时间的流逝,意识和理解问题转向意识问题。 Searle将故意性与意识的意识联系起来,认为故意状态至少具有潜在的意识。戴维·查默斯(David Chalmers)在1996年的《有意识的思想》中指出,尽管塞尔(Searle)最初指示他反对机器意图的论点,但从后来的著作中可以明显看出,真正的问题是意识,塞尔(Searle)认为这是意图的必要条件。数字计算机缺乏意识。查默斯(Chalmers数字电路的时间),或全部一次,在肉和硅之间来回切换(请参阅上面第4.3节中的机器化的简要讨论)。
批评家实际上认为,意图是物理系统状态的固有特征,这些策略是物理系统状态的固有特征(例如,图灵的照片都有意图:这种形式的意图与解释无关可能是由机器人产生的句子,例如“我现在在时钟室里”。当机器人生成该句子时,这意味着机器人在一个称为“时钟室”的房间中关于)。在这种思考的方式上,故意是一回事,解释是另一回事,即解释是关于某事的理论或假设。句子或照片的故意性是它与世界的关系。句子的解释是二阶的意图,即句子及其意图。