人工智能(八)
从上面给出的意义上讲,机器学习与概率技术有关。概率技术与学习功能的学习(例如天真的贝叶斯分类)和学习算法的理论特性建模有关。例如,对监督学习的标准重新重新构成将其视为贝叶斯问题。假设我们正在考虑识别数字
[
0
-
9
]
[
0
-
9
]
从给定的图像。提出这个问题的一种方法是询问假设的概率
H
x
�
�
:“数字是
x
�
鉴于图像是真的
d
�
从传感器。贝叶斯定理给了我们:
磷
(
H
x
∣
∣
d
)
=
磷
(
d
∣
∣
H
x
)
*
磷
(
H
x
)
磷
(
d
)
�
(
�
�
|
�
)
=
�
(
�
|
�
�
)
*
�
(
�
�
)
�
(
�
)
磷
(
d
∣
H
x
)
�
(
�
∣
�
�
)
和
磷
(
H
x
)
�
(
�
�
)
可以从给定的培训数据集估算。然后将具有最高后概率的假设作为答案给出,并由以下方式给出:
精氨酸
最高
x
磷
(
d
∣
∣
H
x
)
*
磷
(
H
x
)
精氨酸
最高
�
�
(
�
|
�
�
)
*
�
(
�
�
)
除了用于构建算法的概率方法外,概率理论还用于分析可能没有明显概率或逻辑表述的算法。例如,学习中的元理论中的一种中央类别,可能是近似正确的(PAC)定理,是根据诱导/学习的FL函数与真实函数之间不匹配的概率和真实函数ft较小的概率的下限。鉴于学习功能FL在一定数量的情况下效果很好(请参阅第18章,AIMA)。
5。野外AI
从至少它的现代成立开始,AI一直与小工具相连,通常是由公司生产的,这将是我们不要对这种现象说几句话。尽管AI及其姊妹领域(例如优化和决策)有大量商业野外成功的案例,但在野外进行了更明显的申请,并经过了彻底的战斗测试。在2014年,此类域中最明显的域之一(AI取得了惊人的成功)是信息检索,它是Web搜索。最近的另一个成功故事是模式识别。应用模式识别的最先进(例如,指纹/面部验证,语音识别和手写识别)足够强大,足以允许在实验室外部署“高风险”。截至2018年中期,几家公司和研究实验室已经开始在公共道路上测试自动驾驶汽车,甚至少数司法管辖区都使自动驾驶汽车合法运行。例如,在非平凡条件下,Google的自动驾驶汽车在加利福尼亚州的人类帮助最少,在加利福尼亚航行了数十万英里(Guizzo 2011)。
计算机游戏为AI技术提供了强大的测试床,因为它们可以捕获重要的部分,这些部分可能是测试AI技术的重要部分问题(Laird and Vanlent 2001)。一组游戏中的一个子类在AI的商业部署中富有成果,这是实时策略游戏。实时策略游戏是游戏中有限的资源的游戏。一个目的是不断与其他球员作战并减少对手的力量。实时策略游戏与策略游戏不同,因为玩家可以实时同时计划自己的行动,而不必轮流玩。这样的游戏面临许多挑战,这些挑战在最先进的掌握范围内。这使得这样的游戏成为部署简单AI代理的吸引人的场所。可以在(Robertson and Watson 2015)中找到实时策略游戏中使用的AI概述。
尽管取得了巨大的成功,但AI中的其他一些企业只是悄悄地缓慢而谦卑地闲逛。例如,与AI相关的方法在解决了数十年来抗拒任何解决方案的数学问题方面取得了胜利。这样一个问题的最值得注意的实例也许是证明“所有罗宾斯代数都是布尔代数”的说法。这是在1930年代的猜想,在仅几个月的努力之后,水獭自动定理驱动器最终发现了证明(Kolata 1996,Wos 2013)。诸如正式验证之类的姊妹领域也已经盛开,以至于现在半自动地验证重要硬件/软件组件并不难(Kaufmann等,2000和Chajed等人,2017年)。
其他相关领域(例如(自然)语言翻译)还有很长的路要走,但足够好,可以让我们在受限条件下使用它们。陪审团正在完成诸如机器翻译之类的任务,这似乎同时需要统计方法(Lopez 2008)和符号方法(España-Bonet 2011)。现在,两种方法在野外取得了可比但有限的成功。福特部署的翻译系统最初是为了将制造过程说明从英语翻译为最初以基于规则的系统为基于福特和域特异性词汇和语言的基于规则的系统。然后,该系统进化为合并统计技术以及基于规则的技术,因为它在翻译手册外获得了新的用途,例如,在福特中放置了用户翻译自己的文档(Rychtyckyj和Plesco 2012)。
迄今为止,AI在上面提到的伟大成就都处于有限的狭窄领域。在不受限制的一般案例中,这种缺乏成功的原因导致一小部分研究人员闯入了现在所谓的人工通用情报(Goertzel and Pennachin 2007)。这一运动的既定目标包括再次将重点转移到建立通常聪明且不仅能够在一个狭窄领域中的人工制品。
6。道德AI
计算机伦理已经存在了很长时间。在这个子场中,通常会考虑一个人应该如何在涉及计算机技术的某种类别的情况下采取行动,其中“一个”是指人类(Moor 1985)。所谓的“机器人道德”是不同的。在这个子场中(以“道德AI”,“道德AI”,“机器伦理”,“道德机器人”等为名),一个人面临着机器人能够使自动和自主权的前景遇到的前景决策 - 可能在道德上可能允许或不允许的决定(Wallach&Allen 2010)。如果一个人试图设计具有复杂道德推理和决策能力的机器人,那么人们也将进行哲学AI,因为该概念在当前条目中的其他地方是特征的。道德AI的方法可能有许多不同的口味。 Wallach and Allen(2010)提供了不同方法的高级概述。在具有致命作用能力的机器人中显然需要道德推理。 Arkin(2009)介绍了我们如何控制和调节具有致命行为能力的机器。道德AI超出了明显的致命情况,我们可以拥有多种道德机器。 Moor(2006)提供了一种可能的道德药物。一个非致命但道德上充电的机器的一个例子将是一台说谎的机器。克拉克(Clark,2010)使用了思想的计算理论,即代表其他代理的能力和推理的能力,建造了一个成功地说服人们相信虚假的机器。 Bello&Bringsjord(2013)概述了建造道德机器所需的内容,其中一种成分是一种心态。
可以在道德上推荐的建筑机器的最一般框架在于将机器赋予道德代码。这就要求机器用于推理的正式框架足够表达以接收此类代码。目前,道德AI领域与此类代码的来源或出处无关。来源可以是人类,机器可以直接接收代码(通过显式编码)或间接接收代码(读取)。另一种可能性是,该代码是由机器从更基本的一组法律中推断出来的。我们假设机器人可以访问一些此类代码,然后我们尝试在任何情况下都试图设计机器人遵循该代码,同时确保道德代码及其表示形式不会导致意外后果。 Deontic Logics是一类正式逻辑,为此目的进行了最多的研究。抽象地,这种逻辑主要与给定道德代码的下列内容有关。然后,工程学研究了给定的义逻辑与道德代码的匹配(即足够表达逻辑),必须与易于自动化的易于平衡。 Bringsjord等。 (2006年)提供了一个蓝图,用于使用道逻辑来构建可以根据道德代码执行操作的系统。 Bringsjord等人提供的框架中发挥的作用(可以被认为是代表道德AI的Deontic Logic领域)的角色,可以理解为努力努力实现莱布尼兹(Leibniz)实现普遍道德计算的梦想:
当引起争议时,两个哲学家之间的争议将不如两个会计师之间的争议。他们可以拿起笔来坐在他们的算盘上,互相说(也许已经召唤一个共同的朋友)是足够的:“让我们计算。”
基于右逻辑的框架也可以以类似于道德自我反射的方式使用。在这种模式下,机器人内部模块的基于逻辑的验证可以在机器人冒险进入现实世界之前进行。 Govindarajulu and Bringsjord(2015)提出了一种从正式的程序验证中提出的方法,在该方法中,可以使用基于右逻辑的系统来验证机器人在某些条件下以某种道德认可的方式起作用。由于正式的验证方法可用于主张有关无限数量情况和条件的陈述,因此,这种方法可能更喜欢在道德上充满道德的测试环境中漫游,并做出一套有限的决策,然后判断以进行判断。他们的道德正确性。最近,Govindarajulu and Bringsjord(2017)使用武器逻辑提出了双重效应学说的计算模型,这是道德困境的道德原则,已经过哲学的经验和广泛的分析。[35] [35]该原则通常是使用手推车通过困境来提出和动机的,并以这种方式以这种方式徒步提出(1967)。
尽管有实质性的理论和哲学工作,但机器伦理领域仍处于起步阶段。在建造道德机器方面,已经有一些胚胎工作。最近的一个例子是Pereira和Saptawijaya(2016),他们使用逻辑编程并将其工作基于机器伦理学,以称为合同主义的伦理理论,由Scanlon(1982)提出。那未来呢?由于人工代理人必定会变得更聪明,更聪明,并且要拥有越来越多的自主权和责任,因此机器人伦理几乎可以肯定会增长的重要性。这项工作可能不是古典伦理的直接应用。例如,实验结果表明,人类将机器人的道德标准与在类似条件下对人类的预期不同(Malle等,2015)。[36]
7。哲学AI
请注意,本节的标题不是AI的哲学。我们将暂时进入该类别。 (就目前而言,它可以通过回答诸如AI中创建的人造代理人是否可以达到人类智能的全部高度等问题来确定它。)哲学AI是AI,而不是哲学;但这是AI植根于哲学。例如,人们可以使用哲学的工具和技巧,悖论,制定拟议的解决方案,然后继续采取一定的步骤,对哲学家肯定是可选的:用可以将解决方案转换为计算机程序,执行后,允许人造代理克服原始悖论的具体实例。[37]在我们表现出特定研究计划的哲学AI表征之前,让我们首先考虑AI实际上只是哲学或其一部分的观点。
丹尼尔·丹尼特(Daniel Dennett,1979年)著名地声称,不仅有一部分人工智能与哲学有着密切联系,而且AI是哲学(至少是认知能力的哲学)。 (他对人造生活提出了平行的主张(Dennett 1998))。这种观点将被证明是不正确的,但是错误的原因将被证明是有启发性的,我们的讨论将为讨论哲学AI的讨论铺平道路。
丹尼特到底怎么说?
我想声称AI更好地看作是与传统认识论共享的状态,即对自上而下的问题最一般,最抽象的询问:知识如何? (Dennett 1979,60)
在其他地方,他说他的观点是应将AI视为“对智力或知识可能性的最抽象的探究”(Dennett 1979,64)。
简而言之,Dennett认为AI是试图解释智力的尝试,而不是通过研究大脑来识别可以降低认知的组成部分,而不是通过工程化的小型信息处理单元来自下而上建立的小型信息处理单元高级认知过程的时尚,而是通过 - 这就是为什么他说这种方法是自上而下的 - 设计和实施捕获认知的抽象算法。除了至少从1980年代初开始,AI包括在某种意义上是自下而上的方法(请参阅上面讨论的神经计算范式,在非逻辑主义者AI:一个摘要中;尤其是Granger's(请参阅Granger's(请参阅)(请参阅上面的神经计算范式)(请参阅Granger's(请参阅) 2004a,2004b)工作,在上面的文本中超链接,特定的反例),致命的缺陷感染了丹内特的观点。丹内特(Dennett
在某些哲学家看来,AI不能被解释得如此之大,因为它承担了额外的负担:它限制了机械解决方案,因此它的领域并不是所有可能的智力模式的康德领域,而是所有可能的机械机械上可以实现的所有可能的机械领域智力模式。据称,这将引起对生命家,二元论者和其他反机械师的问题。 (Dennett 1979,61)
Dennett对此异议有一个现成的答案。
但是……AI的机制要求并不是任何时刻的额外限制,因为如果心理学是可能的,并且如果教会的论文是正确的,那么机制的限制并不比乞求心理学问题的限制更严重,并且谁想逃避? (Dennett 1979,61)
不幸的是,这是急剧问题。并检查问题会阐明AI的性质。
首先,只要哲学和心理学与心理的本质有关,它们至少并不是被认为在于计算的预设。 AI,至少“强”品种(我们将在下面讨论“强”与“弱” AI)的确是通过工程来证实某些令人印象深刻的人工制品的尝试,即智能处于底部计算(在该级别上)图灵机及其等效物,例如寄存器机)。因此,当然有一个哲学上的主张。但这并不是AI哲学,而是某些物理学家的一些更深入,更具侵略性的主张(例如,宇宙最终是数字本质上)使他们的领域哲学。物理学的哲学当然可以揭示以下主张:物理宇宙可以通过数字术语(例如一系列蜂窝自动机,)完美地建模,但是当然,该学说无法确定物理学的哲学。
其次,我们现在知道(熟悉丹内特(Dennett)写作时知道的正式地形的人),信息处理可以超过标准计算,也就是说,在图灵机可以召集的水平和之下,我们可以超过计算(也可以超越计算(我们会说图灵计算)。 (这种信息处理被称为超计算,这是哲学家杰克·科普兰(Jack Copeland)创造的一个术语,他本人已经定义了这样的机器(例如,Copeland 1998)。第一个能够进行超计算机的机器是试用机器,在同一著名的问题中引入了试用机器符号逻辑杂志(Gold 1965; Putnam 1965)是一个新的超计算机(Hamkins&Lewis) 2000)。)丹内特对教会论文的吸引力因此在数学事实面前飞逝:信息处理的某些品种超出了标准计算(或图灵计算)。教会的论文,或更确切地说,是教会的论文,是一种功能的观点
f
�
当且仅当
f
�
是可以计算的(即,一些图灵机可以计算
f
�
)因此,本论文对信息处理无话可说,这比图灵机器所能实现的要求更高。 (换句话说,在能够超出TMS的壮举之外的信息处理设备中自动找到CTT的相反示例。什么是图灵计算或图灵机械。[38]尤其如此,因为与AI不同的哲学和心理学绝不是从根本上负责工程文物,这使得超音量的物理可靠性从他们的角度无关。因此,将AI视为心理学或哲学是犯下严重的错误,这正是因为这样做的正是因为这样做只会将这些字段从自然数(包括元组)到自然数字的整个功能空间中的斑点中。 。(该空间中只有一小部分功能是图灵的计算。)AI毫无疑问,比这对字段要窄得多。当然,AI可能会被专门用于不构建计算机程序并在体现的图灵机上运行的字段代替。但是,从定义上讲,这个新领域不是AI。我们对AIMA和其他教科书的探索提供了对此的直接经验证实。
第三,实际上,大多数AI研究人员和开发人员只是关注建造有用的,有利可图的工件,并且不要花太多时间来反思本条目中探索的情报的各种抽象定义(例如,什么是AI是AI ((()。
尽管人工智能不是哲学,但肯定有一些方法可以采用最高才能的真正实施AI与哲学紧密联系在一起。证明这一点的最佳方法是简单地提出此类研究和发展,或者至少是代表性的例子。尽管有许多这样的工作例子,但AI中最突出的例子是约翰·波洛克(John Pollock)的奥斯卡项目,该项目在他一生的相当一部分中延伸。有关详细的演讲和进一步的讨论,请参阅
奥斯卡项目的补充。
重要的是要注意到,在这个关头,奥斯卡项目及其基础的信息处理毫无疑问是哲学和技术AI。鉴于所讨论的工作已经出现在人工智能的页面上,这是一本专门用于该领域的第一篇期刊,而不是哲学,这是不可否认的(例如,参见,例如Pollock 2001,1992)。这一点很重要,因为尽管在当前的地点,虽然当然是合适的,但要强调AI和哲学之间的联系,但一些读者可能会怀疑这种重点是人为的:他们可能会怀疑,事实的真相是AI期刊的一页一页充满了远离哲学的狭窄技术内容。确实存在许多这样的论文。但是,我们必须区分旨在介绍AI性质的著作及其核心方法和目标,而旨在在特定技术问题上提出进步的著作。
后一类的著作通常很狭窄,但是,如Pollock所示,有时这些特定问题与哲学密不可分。当然,Pollock的工作是一个代表性的例子(尽管是最实质性的)。人们可以很容易地选择那些碰巧也会产生直截了当哲学的人们的作品。例如,对于在人工智能和计算机科学范围内写的整本书,但在许多方面都是认知逻辑,适用于该主题的研讨会,请参见(Fagin等,2004)。 (很难找到以某种直接方式与哲学结合的技术工作。可以学会AI提供的一个可能的部分答案,这是AIMA第19章中讨论的逻辑编程。
前类别的著作是什么?在此类别中的著作,而按定义,在AI场地而不是哲学的著作是哲学上的。大多数教科书都包含大量属于后一种类别的材料,因此包括讨论AI的哲学性质(例如,AI旨在构建人工智能,这就是为什么,这就是为什么它被称为“ AI”)。