人工智能(一)
1. 人工智能的历史
2. 人工智能到底是什么?
3. 人工智能的方法
3.1 智能代理连续体
3.2 基于逻辑的人工智能:一些手术要点
3.3 非逻辑主义人工智能:总结
3.4 超越范式冲突的人工智能
4.人工智能的爆炸式增长
4.1 机器学习的蓬勃发展
4.2 神经计算技术的复兴
4.3 概率技术的复兴
5. 野外人工智能
6. 道德人工智能
7. 哲学人工智能
8. 人工智能的哲学
8.1 “强”人工智能与“弱”人工智能
8.2 中文房间反对“强人工智能”的争论
8.3 反对“强人工智能”的哥德尔论证
8.4 人工智能哲学的其他主题和读物
9. 未来
参考书目
学术工具
其他互联网资源
人工智能在线课程
相关条目
1. 人工智能的历史
人工智能 (AI) 领域于 1956 年正式起步,由 DARPA 在新罕布什尔州汉诺威达特茅斯学院主办的一次小型但现已著名的夏季会议发起。 (这次会议 AI@50 的 50 周年庆祝活动于 2006 年 7 月在达特茅斯举行,五位最初的参与者再次回来。[2] 本条目的最后部分介绍了这次历史性会议上发生的事情。 )有十位思想家出席,包括约翰·麦卡锡(John McCarthy,1956 年在达特茅斯学院工作)、克劳德·香农 (Claude Shannon)、马文·明斯基 (Marvin Minsky)、阿瑟·塞缪尔 (Arthur Samuel)、特伦查德·摩尔 (Trinchard Moore)(显然是唯一的笔记记录者)在最初的会议上)、雷·所罗门诺夫、奥利弗·塞尔弗里奇、艾伦·纽厄尔和赫伯特·西蒙。从我们现在所处的位置来看,进入新千年之初,达特茅斯会议令人难忘的原因有很多,其中包括这一点:第一,“人工智能”一词是在那里创造的(并且长期以来一直根深蒂固,尽管不喜欢它)一些与会者,例如摩尔);第二,纽厄尔和西蒙透露了一个项目——逻辑理论家(LT)——得到了与会者(事实上,几乎所有在会议后不久了解和了解它的人)的认可,这是一项了不起的成就。 LT 能够证明命题微积分中的基本定理。[3][4]
尽管“人工智能”一词是在 1956 年的会议上出现的,但从操作上的定义来看,人工智能领域(定义为由以某种方式思考和行动的从业者构成的领域)无疑在 1956 年之前就已开始运作。例如,艾伦·图灵在 1950 年发表的一篇著名的 Mind 论文中提出了“机器能思考吗?”这个问题。 (这里图灵谈论的是标准计算机器:能够计算从自然数(或其中的对、三元组等)到图灵机或等效设备可以处理的自然数的函数的机器)应该替换为问题“可以机器在语言上与人类没有区别吗?”具体来说,他提出了一种测试,即现在众所周知的“图灵测试”(TT)。在《TT》中,一名妇女和一台电脑被隔离在密封的房间里,一名人类评委在黑暗中通过电子邮件提问(实际上是通过电传打字机,使用原始术语),不知道两个房间中的哪一个包含哪位参赛者。两者之中。如果根据返回的答案,法官在对哪个房间容纳哪个玩家做出裁决时不能比 50/50 更好,我们就说相关计算机已通过 TT。从这个意义上来说,传递使语言的不可区分性变得可操作。稍后,我们将讨论 TT 在定义人工智能方面已经发挥的作用,并且实际上仍在继续发挥作用。但目前的重点是,图灵在他的论文中明确呼吁建造机器,为他的问题提供肯定答案的存在证明。电话会议甚至还提出了如何进行此类建设的建议。 (他建议建造“儿童机器”,然后这些机器可以逐渐自行成长,学习以成年人水平的自然语言进行交流。罗德尼·布鲁克斯和哲学家丹尼尔可以说遵循了这一建议Dennett (1994) 在 Cog Project 此外,斯皮尔伯格/库布里克的电影《A.I.》至少在一定程度上是对图灵建议的电影探索。[5]) TT 仍然是人工智能的核心。以及对其基础的讨论,正如(Moor 2003)的出现所证实的那样。事实上,TT 继续被用来定义该领域,正如 Nilsson (1998) 在他的该领域教科书中所表达的立场一样,人工智能只是致力于构建能够通过该测试的工件的领域。设计一台能够通过 TT 的计算机的梦想所提供的能量,或者围绕着它已经通过的说法的争议所提供的能量,比以往任何时候都更强大,读者只需通过字符串进行互联网搜索即可
图灵测试通过
寻找实现这一梦想的最新尝试,并尝试(有时由哲学家做出)揭穿某些此类尝试已成功的说法。
回到历史记录的问题,即使有人通过添加“人工智能”指的是一种具体的工程追求来支持人工智能始于 1956 年会议的说法(在这种情况下,图灵的哲学讨论尽管如此)需要一台子机器,本身并不完全算作人工智能),但我们必须面对这样一个事实:图灵以及许多前辈确实尝试过建造智能制品。就图灵而言,在可编程计算机出现之前,这种建筑令人惊讶地得到了很好的理解:在出现可以运行此类程序的计算机之前,图灵自己编写了一个下棋程序,他自己盲目地遵循代码。早在 1950 年之前,早在 Newell (1973) 在印刷品中思考持续、认真地尝试构建一台优秀的下棋计算机的可能性之前,他就已经这样做了。 [6]
从哲学的角度来看,机械智能的系统研究是有意义且富有成效的,独立于特定的逻辑主义形式主义(例如,一阶逻辑)和催生计算机科学的问题(例如,Entscheidungsproblem),而不是 1956 年的问题。无论是这次会议,还是图灵的思维论文,都接近标志着人工智能的开始。这很容易看出。例如,早在图灵诞生之前,笛卡尔就提出了 TT(当然不是名字上的 TT)。 [7]这是相关段落:
如果有机器与我们的身体相似,并在道德上可能的范围内模仿我们的行为,那么我们总是应该有两个非常确定的测试来认识到,尽管如此,它们仍然不是真正的人。首先,他们永远不能像我们一样使用言语或其他符号来记录我们的想法以造福他人。因为我们很容易理解机器的构造,它可以发出言语,甚至可以对有形的动作做出一些反应,从而导致其器官发生变化;例如,如果它被触摸到某个特定的部分,它可能会问我们想对它说什么;如果在另一部分,它可能会惊呼它正在受伤,等等。但它从来不会以各种方式安排自己的言语,以便适当地回应在它面前可能说的一切,即使是最低等类型的人也能做到。第二个区别是,尽管机器可以在某些事情上做得比我们任何人都好,甚至可能比我们更好,但它们在其他事情上却绝对无法做到这一点,这意味着我们可能会发现它们的行为并不是根据知识,而只是为了他们的器官的配置。因为虽然理性是一种通用工具,可以应对所有突发事件,但这些器官需要针对每一个特定行动进行一些特殊的调整。由此可见,任何机器都应该具有足够的多样性,以使其能够按照我们的理性促使我们采取行动的方式在生活的所有事件中采取行动,这在道德上是不可能的。 (笛卡尔 1637,第 116 页)
目前,笛卡尔无疑取得了胜利。[8]图灵预测他的测试将在 2000 年通过,但新千年之初全球各地的烟火早已平息,最善于表达的计算机仍然无法与一个聪明的幼儿进行有意义的辩论。此外,虽然在某些重点领域,机器胜过人类大脑(例如,IBM 著名的深蓝在国际象棋比赛中战胜了加里·卡斯帕罗夫;最近,人工智能系统在其他游戏中也取得了胜利,例如《危险边缘》和围棋,关于这些游戏的更多内容将在稍后讨论。说),头脑具有在几乎任何领域培养专业知识的(笛卡尔)能力。 (如果向深蓝或任何当前的继任者宣布,国际象棋不再是选择的游戏,而是迄今为止未玩过的国际象棋变体,那么该机器将被没有国际象棋专业知识的平均智力的人类孩子击败.) 人工智能根本没能创造出通用智能;它甚至还没有成功地生产出一件表明它最终会创造出这样的东西的文物。
但是 IBM Watson 在 Jeopardy 比赛中著名的令人震惊的胜利又如何呢?游戏节目竞赛?[9] 自从《危险边缘》以来,这显然是机器在人类的“主场”战胜了人类。提供跨越多个领域的人类水平的语言挑战。事实上,在许多人工智能行家中,沃森的成功被认为比深蓝的成功更令人印象深刻,原因有很多。原因之一是,虽然从形式计算的角度来看,国际象棋通常被认为是很好理解的(毕竟,众所周知,存在完美的下棋策略),但在开放域问答(QA)中,与任何重要的自然语言处理任务一样,从形式上讲,人们对于试图解决什么问题并没有达成共识。简而言之,问答(QA)就是读者所认为的:一个人向机器提出问题,并得到答案,而答案必须通过一些“重要”的计算过程产生。 (参见 Strzalkowski 和 Harabagiu (2006),了解 QA 在历史上作为一个领域的概述。)更准确地说,对于计算什么底层函数(正式来说,问答能力)并没有达成一致。这种缺乏共识很自然地源于这样一个事实:从正式意义上来说,对于什么是自然语言当然没有达成共识。 [10]尽管存在这种模糊性,并且面对几乎普遍的信念,即开放域问答将在十年或更长时间内仍未得到解决,沃森果断地击败了两位人类顶尖的 Jeopardy!这个星球上的冠军。在比赛期间,沃森必须回答的问题不仅需要掌握简单的事实(问题 1),还需要一定程度的基本推理(以时间推理的形式)和常识(问题 2):
问题1:唯一连续两任美国总统同名。
问题2:1898年5月,葡萄牙庆祝了这位探险家抵达印度400周年。
虽然 Watson 在 Jeopardy! 式测验中明显优于人类(新的人类 Jeopardy! 大师可能会出现,但至于国际象棋,AI 现在假设第二轮 IBM 级别的投资将击败新的人类对手) ,这种方法不适用于笛卡尔描述的那种 NLP 挑战;也就是说,沃森无法即时交谈。毕竟,有些问题并不取决于复杂的信息检索和对现有数据的机器学习,而是取决于现场复杂的推理。例如,此类问题可能涉及回指解析,这需要对时间、空间、历史、民间心理学等有更深层次的常识性理解。 Levesque (2013) 列出了一些属于这一类的极其简单的问题。 (Marcus,2013,描述了 Levesque 的挑战,可供更广泛的受众理解。)Watson 失败的另一类问答任务可以被描述为动态问答。这些问题的答案可能不会在提问时以文本形式记录在任何地方,或者答案取决于随时间变化的因素。下面给出了属于此类别的两个问题(Govindarajulu et al. 2013):
问题 3:如果我有 4 个 foo 和 5 个 bar,并且 foo 与 bar 不同,那么如果我得到 3 个 baze 恰好是 foo,我将有多少个 foo?
问题 4:IBM 在过去 60 天的交易中的夏普比率是多少?
紧随沃森获胜之后,2016 年 3 月,谷歌 DeepMind 的 AlphaGo 在五场比赛中击败了围棋顶级选手之一李·西多 (Lee Seedol)。这被认为是人工智能领域的一项里程碑式的成就,因为人工智能界普遍认为,计算机在围棋中获胜至少还需要几十年的时间,部分原因是与国际象棋相比,围棋中的有效步数序列数量巨大。 [11]虽然这是一项了不起的成就,但应该指出的是,尽管大众媒体对此进行了铺天盖地的报道,[12] AlphaGo 虽然无可争议是一位伟大的围棋棋手,但也仅此而已。例如,AlphaGo 和 Watson 都无法理解用简单的英语编写的围棋规则并生成可以玩该游戏的计算机程序。有趣的是,人工智能领域有一项努力解决了这个问题的狭义版本:在一般游戏中,机器在必须玩游戏之前会得到一个全新游戏的描述(Genesereth et al. 2005) 。然而,所讨论的描述是用形式语言表达的,并且机器必须设法根据该描述来玩游戏。请注意,即使是对游戏的简单英文描述也还远远不足以理解并玩它。
但是,如果我们不是从哲学的角度,而是从当今与其最密切相关的领域的角度来考虑人工智能的历史,结果会怎样呢?这里指的是计算机科学。从这个角度来看,人工智能是否可以追溯到图灵之前?有趣的是,结果是一样的:我们发现人工智能深深地扎根于过去,并且始终流淌着哲学。事实如此,原因很简单,计算机科学源于逻辑和概率论,[13]而后者又源于(并且仍然与哲学交织在一起)。今天的计算机科学充满了逻辑。这两个字段不能分开。这种现象本身已成为研究对象(Halpern 等,2001)。当我们谈论的不是传统逻辑而是概率形式主义时,情况也没有什么不同,概率形式主义也是现代人工智能的重要组成部分:这些形式主义也源于哲学,正如 Glymour (1992) 所部分记录的那样。例如,在帕斯卡的一个头脑中诞生了一种严格计算概率的方法,条件概率(目前在人工智能中发挥着特别重要的作用),以及诸如帕斯卡赌注这样丰富的哲学概率论证,根据它,它是非理性的不是成为基督徒。
现代人工智能有其哲学根源,事实上,这些历史根源在时间上比笛卡尔遥远的时代还要深刻,这一点可以通过查看第二版巧妙、富有启发性的封面来看出(第三版是当前的版本)。一)综合教科书《人工智能:现代方法》(在 AI 社区中简称为 AIMA2e for Russell & Norvig,2002 年)。
AIMA2e 的封面
AIMA2e 的封面(Russell & Norvig 2002)
你看到的是一系列不拘一格的纪念品,可能就在某个想象中的人工智能研究人员的办公桌上和周围。例如,如果你仔细观察,你会具体看到:一张图灵的照片,透过窗户看到的大本钟(也许 R&N 意识到图灵曾一度认为,一台具有通用图灵机在物理上是不可能的:他打趣说它必须有大本钟的大小),亚里士多德的 De Motu Animalium 中描述的规划算法,弗雷格对一阶逻辑的迷人符号,刘易斯的一瞥卡罗尔(Carroll,1958)对三段论推理的图解、拉蒙·纳尔(Ramon Lull)在 13 世纪的《Ars Magna》中提出的概念生成轮,以及许多其他富有内涵的东西(包括以巧妙、递归和近乎自我庆幸的方式, AIMA 本身的副本)。尽管这里没有足够的空间来建立所有的历史联系,但我们可以从这些项目的外观中安全地推断出(这里我们当然指的是古代的:亚里士多德将规划视为对两个和一个的信息处理)此外,正如 Glymour (1992) 指出的,Artistotle 也被认为设计了第一个知识库和本体论,这两种表示方案长期以来一直是人工智能的核心)人工智能确实非常非常古老。即使那些坚持认为人工智能至少在一定程度上是一个人工制品构建企业的人也必须承认,鉴于这些对象,人工智能是古老的,因为它不仅仅是从智能本质上是计算的角度进行理论推理。人类历史的遥远过去:例如,纳尔的轮子标志着不仅在计算中捕捉智能的尝试,而且在体现该计算的物理制品中捕捉智能的尝试。 [14]
AIMA 现在已经到了第三版,那些对人工智能的历史以及心灵哲学的历史感兴趣的人,不会对第三版的封面感到失望(第二版的封面是几乎与第一版完全相同)。 (封面的所有元素,单独列出和注释,都可以在网上找到。)第三版封面的一个重要补充是托马斯·贝叶斯的一幅图画;他的出现反映了人工智能中概率技术最近的流行,我们稍后会讨论这一点。
关于人工智能历史的最后一点似乎值得一提。
人们普遍认为,现代人工智能在 20 世纪 50 年代的诞生,很大程度上是由于现代高速数字计算机的出现。这个假设符合常识。毕竟,人工智能(在某种程度上,还有它的近亲认知科学,特别是计算认知建模,认知科学的子领域,致力于产生人类认知的计算模拟)的目的是在计算机中实现智能,按理说,这样的目标将与此类设备的出现密不可分。然而,这只是故事的一部分:这部分可以追溯到图灵和其他负责第一台电子计算机的人(例如冯·诺伊曼)。另一方面,正如已经提到的,从历史上看,人工智能与推理(基于逻辑,以及在需要处理不确定性时,归纳/概率推理)有着特别紧密的联系。在 Glymour (1992) 精彩讲述的这个故事中,寻找“什么是证明?”这个问题的答案。最终得出了基于弗雷格版本的一阶逻辑(FOL)的答案:(有限)数学证明由从一个一阶逻辑公式到下一个公式的一系列逐步推论组成。这个答案的明显延伸(而且它不是一个完整的答案,因为许多经典数学,尽管有传统智慧,显然不能用 FOL 来表达;甚至皮亚诺公理,也可以表达为一组有限的公式) ,要求SOL)就是说,不仅是数学思维,而且思维、周期,都可以用FOL来表达。 (早在信息处理心理学和认知科学出现之前,许多逻辑学家就已经接受了这种扩展——一些认知心理学家和认知科学家似乎经常忘记这一事实。)今天,基于逻辑的人工智能只是人工智能的一部分,但重点是是这部分仍然存在(在比 FOL 更强大但更复杂的逻辑的帮助下),并且它可以一直追溯到亚里士多德的三段论理论。 [15]在不确定推理的情况下,问题不是“什么是证明?”,而是诸如“根据某些观察和概率,相信什么是合理的?”之类的问题。这是早在数字计算机出现之前就提出并解决的问题。
2. 人工智能到底是什么?
到目前为止,我们似乎已经牢牢准确地掌握了人工智能的本质。但人工智能到底是什么?哲学家可以说比任何人都更清楚,精确地定义一个特定的学科以满足所有相关方(包括那些在该学科本身工作的人)的满意可能是极具挑战性的。科学哲学家当然已经对特定科学和/或工程领域的至少总体形状和结构的构成提出了可信的解释,但商定的物理学定义到底是什么?生物学呢?就此而言,哲学到底是什么?这些都是非常困难的,甚至可能永远无法回答的问题,特别是如果目标是一个共识定义的话。也许在明显的空间限制下,我们可以在这里管理的最谨慎的做法是以封装的形式提出一些人工智能的拟议定义。我们确实包含了最近以详细、严格的方式定义人工智能的尝试(我们怀疑科学哲学家以及对这一哲学子领域感兴趣的人会对这些尝试感兴趣)。