人工智能(九)

8。人工智能哲学

8.1“强”与“弱” AI

回想一下,我们早些时候讨论了对AI的建议定义,并特别回忆说,这些建议是根据该领域的目标而couch之以鼻。我们可以在这里遵循这种模式:我们可以通过注意这两个版本的AI努力实现的不同目标来区分“强”和“弱” AI。 “强” AI试图创造人造人:具有我们拥有所有精神力量的机器,包括惊人的意识。另一方面,“弱” AI试图建造似乎具有人类的全部心理曲目的信息处理机(Searle 1997)。 “弱” AI也可以定义为AI的形式,该形式不仅可以通过Turing测试(再次缩写为TT),还可以定义整个Turing测试(Harnad 1991)。在TTT中,一台机器必须召集的不仅仅是语言不可分性:它必须在所有行为中都通过人类 - 扔棒球,进食,教课程,等等。

对于哲学家来说,推翻“弱” AI似乎极其困难(Bringsjord and Xiao 2000)。毕竟,哪些哲学原因阻碍了人工智能产生似乎是动物甚至人类的人工制品?但是,一些哲学家的目标是在“强” AI中做,我们现在转向最重要的例子。

8.2中国房间反对“强烈的AI”

毫无疑问,AI哲学中最著名的论点是约翰·塞尔(John Searle)(1980年)的中国房间论证(CRA),旨在推翻“强” AI。我们在此处介绍了一个快速摘要,以及关于AI从业者如何看待该论点的“ Trenches的报告”。想进一步学习CRA的读者将在中国房间争论和(Bishop&Preston 2002)上找到一个出色的下一步。

CRA是基于Searle本人主演的思想实验。他在一个房间里;房间外是中国人说话的人,他们不知道Searle在其中。盒子里的塞尔(Searle)就像塞尔(Searle)现实生活一样,不知道任何中文,但英语水平流利。中国扬声器通过插槽将卡片送入房间。在这些卡上是用中文写的。该盒子由Searle的秘密作品提供,将卡片返回给中国人说话的人作为产出。 Searle的输出是通过咨询规则手册来产生的:这本书是一张查找桌子,可以根据发送的内容来告诉他中文要生产的内容。对于Searle,中国人只是一堆 - 使用Searle的语言 - Squiggle-Squoggles。以下示意图总结了情况。标签应该很明显。

氧气

表示外部观察员,在这种情况下,中国发言人。输入用

并输出

如您所见,有一个规则手册的图标,Searle本人被表示

中国房间的输入/输出图

中国房间,示意图

现在,基于这种思想实验的论点是什么?

即使你以前从未听说过 CRA,你无疑也能明白其基本思想:Searle(盒子里的)应该具备计算机所能具备的一切,并且因为他不懂中文,所以任何计算机都不可能拥有这样的能力。理解。塞尔无意识地移动曲线,并且(根据论证)从根本上来说,这就是计算机所做的一切。[39]

如今,CRA 的处境如何?正如我们已经指出的,这个论点似乎仍然有效。证人(Bishop & Preston 2002)。然而,毫无疑问,至少在人工智能从业者中,CRA 普遍被拒绝。 (这当然完全不足为奇。)在这些实践者中,对人工智能本身做出最令人生畏的回应的哲学家是Rapaport(1988),他认为虽然人工智能系统确实是句法的,但正确的句法可以构成语义。应该说,“强”人工智能支持者的普遍态度是,CRA 不仅不合理,而且愚蠢,因为它基于一个奇幻的故事(CR),与人工智能的实践相去甚远——实践是年复一年的。今年不可避免地会走向复杂的机器人,这将一劳永逸地让 CRA 及其支持者保持沉默。例如,约翰·波洛克(John Pollock)(正如我们所注意到的,哲学家和人工智能实践者)写道:

一旦[我的智能系统] OSCAR 完全发挥作用,类比论证将无情地引导我们将思想和情感归因于 OSCAR,就像我们将它们归因于人类一样。相反的哲学论证将会成为过去。 (波洛克 1995 年,第 6 页)

为了结束 CRA 的讨论,我们快速提出两个要点,即:

尽管 Pollock 之类的人相信,面对 OSCAR 最终达到人类水平的能力(以及任何其他仍在改进的人工智能系统),CRA 最终会变得无关紧要,但残酷的事实是,深度语义如今,自然语言处理 (NLP) 已经很少被关注,因此 CRA 的支持者当然不会因为人工智能的现状而感到不适。简而言之,塞尔正确地指出了人工智能的任何成功故事,包括我们讨论过的沃森系统,但仍然宣称无处可寻——理解是在他的哲学权利范围内这么说的。

鉴于某些思想家现在发出明确警告的经验事实,CRA 似乎正在恢复到多年来未见的参与水平,大意是未来有意识的恶意机器很可能希望这样做在我们这个物种中。作为回应,Searle (2014) 指出,由于 CRA 是健全的,所以不可能有有意识的机器;如果不存在有意识的机器,就不存在有任何愿望的恶意机器。我们在条目结束时回到这一点;这里的要点是 CRA 仍然非常重要,事实上,我们怀疑塞尔的无所畏惧的基础不仅会被哲学家,而且会被人工智能专家、未来学家、律师和政策制定者积极接受。

读者可能想知道人工智能研究人员在其领域工作的过程中是否存在哲学辩论(而不是他们参加哲学会议时)。当然,人工智能研究人员之间会进行哲学讨论,对吧?

一般来说,人们发现人工智能研究人员之间确实讨论了人工智能哲学的主题,而这些主题通常与人工智能哲学家所关注的主题完全相同。然而,上面引用的波洛克的话所反映的态度是迄今为止占主导地位的。也就是说,总的来说,人工智能研究人员的态度是,哲学思考有时很有趣,但人工智能工程的向上前进无法停止,不会失败,最终会让这种哲学思考变得无用。

我们将在本文的最后部分回到人工智能的未来问题。

8.3 反对“强人工智能”的哥德尔论证

四十年前,J.R. Lucas (1964) 认为哥德尔第一个不完备性定理意味着没有机器能够达到人类水平的智能。他的论点并没有被证明是令人信服的,但卢卡斯发起了一场辩论,并产生了更强大的论据。卢卡斯不知疲倦的捍卫者之一是物理学家罗杰·彭罗斯,他为卢卡斯辩护的第一次尝试是在他的《皇帝的新思维》(1989)中对“强”人工智能进行哥德尔式的攻击。第一次尝试失败了,彭罗斯发表了一个更详尽、更挑剔的哥德尔案例,在他的《心灵的阴影》(1994)的第二章和第三章中表达了这一点。

鉴于读者可以查阅哥德尔不完备定理条目,这里不需要进行完整的回顾。相反,读者可以通过阅读一篇在线论文来对这一论点有一个体面的理解,其中彭罗斯在其中回应了他的《影子》的批评者(例如哲学家大卫·查尔默斯、逻辑学家所罗门·费弗曼和计算机科学家德鲁·麦克德莫特) of the Mind,将论证提炼为几段。[40]事实上,彭罗斯在这篇论文中给出了他认为是 SOTM 中给出的核心哥德尔案例的完美版本。这是这个版本,逐字:

我们试图假设原则上人类可以理解的(无懈可击的)数学推理方法的整体可以封装在某种(不一定是计算性的)健全的形式系统中

F

。 一位人类数学家,如果提出

F

,可以论证如下(记住短语“我是

F

”只是“的简写

F

封装了所有人类可访问的数学证明方法”):

(A) “虽然我不知道我一定是

F

,我的结论是,如果我是,那么系统

F

必须是健全的,更重要的是,

F

必须是健全的,其中

F

F

并补充了进一步的断言“我是

F

”。我认为这是基于我是的假设

F

哥德尔陈述

G

F

必须是真实的,而且,这不会是以下结果的结果

F

。 但我刚刚意识到“如果我碰巧是

F

,然后

G

F

一定是真的”,而这种性质的看法正是

F

应该能够实现。因为我因此能够感知到一些超出我能力范围的东西

F

,我推断我不能

F

毕竟。此外,这适用于任何其他(哥德尔化)系统,代替

F

”。(彭罗斯 1996,3.2)

这个论证能成功吗?在本条目中不适合寻求这个问题的明确答案。我们鼓励感兴趣的读者查阅该论证的四种全面处理方法(LaForte et. al 1998;Bringsjord and Xiao 2000;Shapiro 2003;Bowie 1982)。

8.4 人工智能哲学的其他主题和读物

除了上面简要介绍的哥德尔和塞尔林论点之外,对“强”人工智能(符号型)的第三种攻击也得到了广泛讨论(尽管随着统计机器学习的兴起,对其关注度相应下降) ),即哲学家休伯特·德雷福斯(Hubert Dreyfus,1972,1992)给出的一个,其一些化身已与他的兄弟斯图尔特·德雷福斯(Stuart Dreyfus,1987)共同阐明,他是一台计算机科学家。粗略地说,这次攻击的核心思想是,人类的专业知识并不是基于对符号信息(例如某些逻辑中的公式,或某些贝叶斯网络中的概率)的明确的、无形的、机械的操纵,并且人工智能构建机器的努力如果基于符号范式,具有这种专业知识的人注定会失败。德雷福斯攻击的起源是一种信念,即海德格尔等思想家对(如果你愿意的话)基于符号的哲学(例如,基于逻辑的理性主义传统中的哲学,而不是所谓的欧陆传统)的批判梅洛-庞蒂可能会反对人工智能中的理性主义传统。在进一步阅读和研究德雷福斯的著作后,读者可能会判断这种批评是否令人信​​服,在一个信息驱动的世界中,越来越多地由执行符号推理的智能体管理(尽管甚至不接近人类水平)。

对于有兴趣探索超越吉姆·摩尔(Jim Moor)(在最近的演讲中——“人工智能的下一个五十年:未来的科学研究与过去的哲学批评”——作为 2006 年美国东部哲学协会年度会议上的 2006 年巴威斯奖获得者)的人工智能哲学的读者)被称为对人工智能的“三大”批评,并不缺乏额外的材料,其中大部分都可以在网络上找到。 AIMA 的最后一章提供了一些反对“强”人工智能的额外论点的压缩概述,总体来说是一个不错的下一步。不用说,今天的人工智能哲学涉及的不仅仅是上面讨论的三个众所周知的论点,而且不可避免的是,明天的人工智能哲学将包括我们现在看不到的新辩论和问题。因为机器不可避免地会变得越来越聪明(无论它们变得多么聪明),纯粹而简单的人工智能哲学是一个不断增长的行业。对于机器匹配的每一项人类活动,“大”问题只会吸引更多关注。

9. 未来

如果过去的预测有任何迹象的话,那么我们今天对明天的科学技术唯一了解的是,它将与我们预测的完全不同。可以说,就人工智能而言,我们今天可能还明确知道其进展将比大多数人预期的慢得多。毕竟,在 1956 年的启动会议上(在本文开头讨论过),赫伯·西蒙 (Herb Simon) 预测,能够与人类思维相匹配的思维机器“指日可待”(有关相关引用和内容丰富的讨论,请参阅第一章AIMA)。事实证明,新世纪到来时,甚至没有一台机器能够进行幼儿水平的对话。 (回想一下,当谈到建造能够显示人类水平智能的机器时,笛卡尔,而不是图灵,今天似乎是更好的预言家。)尽管如此,尽管这可能令人惊讶,但 20 世纪末的严肃思想家仍在继续对人工智能的进展做出令人难以置信的乐观预测。例如,汉斯·莫拉维克 (Hans Moravec,1999) 在他的《机器人:从纯粹的机器到超越的思维》一书中告诉我们,由于计算机硬件的速度每 18 个月就会翻一番(根据摩尔定律,该定律在过去显然一直成立),“第四次“新一代”机器人很快就会在各个方面超越人类,从经营公司到写小说。故事是这样的,这些机器人将进化到如此崇高的认知高度,我们将像今天的单细胞生物体一样对待它们。 [41]

莫拉维克绝不是盲目乐观的人:人工智能领域的许多其他人都预测,同样轰动的未来也会以同样快的速度展开。事实上,在前面提到的 AI@50 会议上,Jim Moor 就提出了“未来 50 年内会实现人类水平的人工智能吗?”的问题。出席 1956 年最初会议的五位思想家:约翰·麦卡锡、马文·明斯基、奥利弗·塞尔弗里奇、雷·所罗门诺夫和特伦查德·摩尔。麦卡锡和明斯基给出了坚定、毫不犹豫的肯定,所罗门诺夫似乎暗示,面对我们人类似乎一心要毁灭自己的事实,人工智能提供了一线希望。 (塞尔弗里奇的回答有点神秘。摩尔回复了一个坚定、明确的否定,并宣称一旦他的计算机足够聪明,可以与他就数学问题进行对话式交互,他可能会更认真地对待整个事业。)这留给读者了来判断 Moravec、McCarthy 和 Minsky 给出的此类风险预测的准确性。[42]

读者在这方面的判断应该考虑到最近对“奇点”(我们简称为 S)人工智能超越人类智能的未来点的严肃反思的惊人复苏。 ,紧接着(正如故事所讲的那样),机器使自己迅速变得越来越聪明,越来越聪明,达到了超人的智力水平,当我们陷入有限的思维泥沼时,我们无法理解这一水平。有关 S 的广泛、平衡的分析,请参阅 Eden 等人。 (2013)。

不熟悉有关 S 的文献的读者可能会非常惊讶地发现,在博学的人们中,这一假设事件不仅受到认真对待,而且实际上已成为广泛而频繁的哲学思考的目标最近有问题的想法,参见 Floridi (2015)]。什么论据支持“S 存在于我们的未来”这一信念?在这一点上有两个主要论点:熟悉的基于硬件的论点[由 Moravec 倡导,如上所述,最近又由 Kurzweil (2006) 倡导];以及——据我们所知——数学家 I. J. Good (1965) 给出的原始论证。此外,Bostrom (2014) 最近提出了一个相关的末日预言者论点,该论点似乎预设了 S 将会发生。查尔默斯 (Chalmers, 2010) 很好地放大和调整了古德的论点,他肯定了该论点的整理版本,其内容如下:

前提 1:将会存在 AI(由 HI 创建,并且 AI = HI)。

前提2:如果有AI,就会有AI

+

+

(由人工智能创建)。

前提3:如果有AI

+

+

,将会有AI

+

+

+

+

(由人工智能创建

+

+

)。

结论:将会有人工智能

+

+

+

+

(= S 将发生)。

在这个论点中,“人工智能”是人类水平上的人工智能,并由人类创造,“人工智能”

+

+

” 高于人类水平的人工智能,以及“人工智能

+

+

+

+

’ S 的超级智能构成。关键过程大概是一类机器被另一类机器创造出来。为了方便起见,我们为人类智能添加了“HI”;那么中心思想是:HI将创造AI,后者与前者具有相同的智能水平;人工智能将创造人工智能

+

+

;人工智能

+

+

将创造人工智能

+

+

+

+

;扬升也许会永远进行,但无论如何,扬升的时间足够长,足以让我们像蚂蚁一样被神超越。

这个论点显然在形式上是有效的。它的三个前提都是真的吗?提出这样的问题将使我们远远超出本文的范围。我们只是指出,一类机器创造另一类更强大的机器的概念并不是一个透明的概念,古德和查尔默斯都没有对这一概念提供严格的解释,这对于哲学分析来说已经成熟了。 (至于数学分析,当然存在一些。例如,众所周知,一台计算机器在

L

不可能创建另一台更高级别的机器

L

。例如,线性有界自动机无法创建图灵机。)

古德-查尔默斯的论点有一种相当冷静的气氛。这个论点没有提到任何关于人工智能中的机器是否

+

+

+

+

类别可以是良性的、恶意的或慷慨的。许多其他人很乐意用黑暗的悲观主义来填补这一空白。这里的经典毫无疑问是 Bill Joy (2000) 发表的一篇被广泛阅读的论文:“为什么未来不需要我们。”乔伊认为,人类注定要灭亡,很大程度上是因为人类正忙于建造智能机器。他写道:

21 世纪的技术——遗传学、纳米技术和机器人技术 (GNR)——非常强大,以至于可能引发全新类型的事故和滥用行为。最危险的是,这些事故和虐待行为第一次广泛地受到个人或小团体的影响。他们不需要大型设施或稀有原材料。仅凭知识就可以使用它们。

因此,我们不仅有可能拥有大规模杀伤性武器,而且有可能拥有知识驱动的大规模杀伤性武器(KMD),这种破坏性因自我复制的力量而被极大地放大。

我认为,可以毫不夸张地说,我们正处于极端邪恶进一步完善的风口浪尖,这种邪恶的可能性远远超出了大规模杀伤性武器留给民族国家的范围,令人惊讶和可怕地赋予了极端邪恶以力量。个人。[43]

(本章完)

相关推荐