人工智能和机器人技术的伦理(完结)
2.9.2 机器人的权利
一些作者表示,应该认真考虑是否必须为当前的机器人分配权利(Gunkel 2018a,2018b;Danaher 即将出版;Turner 2019)。这一立场似乎很大程度上依赖于对对手的批评以及机器人和其他非人有时被视为拥有权利的经验观察。在这种情况下,有人提出了“关系转向”:如果我们将机器人视为拥有权利,那么我们最好不要去探寻它们是否“真的”拥有这样的权利(Coeckelbergh 2010、2012、2018)这就提出了这样的问题:这种反现实主义或准现实主义能走多远,以及在以人为中心的世界中“机器人拥有权利”意味着什么?在辩论的另一方,Bryson 坚持认为机器人不应该享有权利(Bryson 2010),尽管她认为这是一种可能性(Gunkel 和 Bryson 2014)。
机器人(或其他人工智能系统)是否应该被赋予“法人实体”或自然人意义上的“法人”地位,这是一个完全独立的问题,而且国家、企业或组织也是“实体”,即它们可以享有合法的权利和义务。欧洲议会已考虑将这种地位分配给机器人,以处理民事责任(欧盟议会,2016 年;Bertolini 和 Aiello,2018 年),但不承担刑事责任——刑事责任是为自然人保留的。也可以只将一部分权利和义务分配给机器人。有人说,“这种立法行动在道德上是不必要的,在法律上也是麻烦的”,因为它不符合人类的利益(Bryson、Diamantis 和 Grant 2017:273)。在环境伦理学中,对于树木等自然物体的合法权利存在着长期的讨论(C. D. Stone 1972)。
也有人说,未来开发具有权利的机器人或人工道德患者的原因在伦理上是值得怀疑的(van Wynsberghe 和 Robbins 2019)。在“人工智能”研究人员群体中,人们非常担心创造这种意识是否合乎道德,因为创造这种意识可能意味着对有感知力的道德义务,例如,不伤害它,也不通过切换来结束它的存在一些作者呼吁“暂停合成现象学”(Bentley et al. 2018:28f)。
2.10 奇点
2.10.1 奇点和超级智能
在某些方面,当前人工智能的目标被认为是“通用人工智能”(AGI),与技术或“狭义”人工智能形成鲜明对比。 AGI 通常有别于作为通用系统的人工智能的传统概念,以及塞尔的“强人工智能”概念:
给予正确程序的计算机可以从字面上说理解并具有其他认知状态。 (塞尔 1980:417)
奇点的想法是,如果人工智能的轨迹达到了具有人类智能水平的系统,那么这些系统本身就有能力开发出超越人类智能水平的人工智能系统,即它们是“超级智能” “ (见下文)。这样的超级智能人工智能系统将快速自我改进或开发出更加智能的系统。达到超级智能人工智能后的这种急剧转变是人工智能发展脱离人类控制且难以预测的“奇点”(Kurzweil 2005:487)。
甚至在计算机出现之前,“我们创造的机器人将接管世界”的恐惧就已经激发了人类的想象力(例如,Butler 1863),并且是恰佩克引入“机器人”一词的著名戏剧的中心主题(恰佩克 1920)。欧文·古德(Irvin Good)首先将这种恐惧表述为现有人工智能进入“智能爆炸”的可能轨迹:
让超级智能机器定义为一种可以远远超越任何人(无论多么聪明)的所有智力活动的机器。由于机器设计是这些智力活动之一,因此超级智能机器可以设计出更好的机器;毫无疑问,届时将会出现“智力爆炸”,而人类的智力将被远远抛在后面。因此,第一台超级智能机器是人类需要做出的最后一项发明,只要该机器足够温顺,能够告诉我们如何控制它。 (好 1965 年:33)
Kurzweil (1999, 2005, 2012) 阐明了从加速到奇点的乐观论点,他本质上指出计算能力一直呈指数级增长,即大约翻倍。自1970年以来,按照“摩尔定律”,晶体管数量每两年增加一次,并将在未来一段时间内继续如此。他在(Kurzweil 1999)中预测,到2010年超级计算机将达到人类的计算能力,到2030年“思维上传”将成为可能,到2045年“奇点”将出现。 Kurzweil 谈到可以以给定成本购买计算能力的增加,但当然近年来人工智能公司可用的资金也大幅增加:Amodei 和 Hernandez (2018 [OIR]) 因此估计,在 2012 年– 2018 年,可用于训练特定人工智能系统的实际计算能力每 3.4 个月翻一番,导致 300,000 倍的增长,而不是每 3.4 个月翻一番的 7 倍增长两年就会创造。
这一论点的一个常见版本(Chalmers 2010)谈到了人工智能系统“智能”的增加(而不是原始计算能力),但“奇点”的关键点仍然是人工智能的进一步发展被接管。人工智能系统并加速超越人类水平。 Bostrom(2014)详细解释了那时会发生什么以及人类面临的风险是什么。 Eden 等人总结了讨论。 (2012);阿姆斯特朗(2014);沙纳汉(2015)。除了计算能力的提高之外,还有其他可能的途径实现超级智能,例如,在计算机上完全模拟人脑(Kurzweil 2012;Sandberg 2013)、生物路径或网络和组织(Bostrom 2014:22-51)。
尽管在将“智能”与处理能力等同起来方面存在明显的缺陷,但库兹韦尔认为人类倾向于低估指数增长的力量似乎是正确的。小测试:如果你以每一步是前一步的两倍的方式行走,从一米开始,30步你能走多远? (答案:几乎比地球唯一的永久天然卫星远 3 倍。)事实上,人工智能的大部分进步很容易归因于速度更快的处理器、更大的存储和更高的投资(Müller 2018)。实际加速度及其速度在(Müller 和 Bostrom 2016;Bostrom、Dafoe 和 Flynn 即将出版)中讨论;桑德伯格(Sandberg,2019)认为,进展将持续一段时间。
这场辩论的参与者因技术爱好者而团结在一起,因为他们期望技术能够迅速发展并带来广泛欢迎的变化,但除此之外,他们分为关注利益的人(例如库兹韦尔)和关注风险的人(例如库兹韦尔)。例如,博斯特罗姆)。两个阵营都赞同人类以不同的物理形式生存的“超人类”观点,例如上传到计算机上(Moravec 1990,1998;Bostrom 2003a,2003c)。他们还考虑了“人类增强”在各个方面的前景,包括智力——通常称为“IA”(智力增强)。未来的人工智能可能会用于人类的增强,或者将进一步有助于消解明确定义的人类个体。 Robin Hanson 详细推测了如果人类“大脑仿真”实现真正的智能机器人或“ems”,经济上会发生什么(Hanson 2016)。
从超级智能到风险的论证需要这样的假设:超级智能并不意味着仁慈——这与康德伦理学传统相反,康德传统认为更高水平的理性或智力将伴随着对道德的更好理解和更好的道德行为能力(Gewirth 1978;查默斯 2010:36f)。关于超级智能风险的论点认为,理性和道德是完全独立的维度——有时这被明确认为是“正交论”(Bostrom 2012;Armstrong 2013;Bostrom 2014:105-109)。
人们从各个角度对奇点叙事提出了批评。库兹韦尔和博斯特罗姆似乎假设智力是一种一维属性,并且智能体集合在数学意义上是完全有序的,但他们的书中都没有详细讨论智力。总的来说,可以公平地说,尽管做出了一些努力,但在超级智能和奇点的强大叙述中所做的假设尚未得到详细研究。一个问题是这样的奇点是否会发生——它可能在概念上是不可能的,实际上是不可能的,或者可能只是因为偶然事件而不会发生,包括人们积极阻止它。从哲学上讲,有趣的问题是奇点是否只是一个“神话”(Floridi 2016;Ganascia 2017),而不是实际人工智能研究的轨迹。这是从业者经常假设的事情(例如,Brooks 2017 [OIR])。他们这样做可能是因为他们担心公共关系的强烈反对,因为他们高估了实际问题,或者因为他们有充分的理由认为超级智能是当前人工智能研究不太可能出现的结果(穆勒即将发布-a)。这次讨论提出了一个问题:对“奇点”的担忧是否只是基于人类恐惧的虚构人工智能的叙述。但即使人们确实发现负面原因令人信服并且奇点不太可能发生,人们仍然有很大可能被证明是错误的。哲学并不走在“科学的安全道路”上(Kant 1791:B15),也许人工智能和机器人技术也不是(Müller 2020)。因此,即使人们认为这种奇点发生的概率非常低,讨论奇点的高影响力风险似乎也是有道理的。
2.10.2 超级智能带来的生存风险
从长远来看,超级智能会引发这样一个问题:超级智能是否可能导致人类灭绝,这被称为“存在风险”(或 XRisk):超级智能系统很可能具有与人类存在相冲突的偏好。地球,因此可能决定结束这种存在——并且考虑到他们卓越的智慧,他们将有能力这样做(或者他们可能会碰巧结束它,因为他们并不真正关心)。
长远思考是该文献的关键特征。奇点(或其他灾难性事件)是否在 30 年、300 年或 3000 年发生并不重要(Baum 等人,2019)。也许甚至存在一种天文模式,即智慧物种必然会在某个时候发现人工智能,从而导致自己的灭亡。这样一个“伟大的过滤器”将有助于解释“费米悖论”,即为什么已知宇宙中没有生命的迹象,尽管它出现的可能性很高。如果我们发现“大过滤器”就在我们前面,而不是地球已经通过的障碍,那将是个坏消息。这些问题有时被更狭义地视为与人类灭绝有关(Bostrom 2013),或更广泛地被视为与物种面临的任何重大风险有关(Rees 2018)——人工智能只是其中之一(Häggström 2016;Ord 2020)。 Bostrom 还使用“全球灾难性风险”类别来表示在“范围”和“严重性”两个维度上足够高的风险(Bostrom 和 Ćirković 2011;Bostrom 2013)。
这些关于风险的讨论通常与风险下的一般道德问题无关(例如,Hansson 2013、2018)。长期观点有其自身的方法论挑战,但引发了广泛的讨论:(Tegmark 2017)关注奇点后的人工智能和人类生活“3.0”,而 Russell、Dewey 和 Tegmark(2015)以及 Bostrom、Dafoe 和 Flynn(即将推出)调查道德人工智能的长期政策问题。多篇论文集研究了通用人工智能(AGI)的风险以及可能使这种发展或多或少充满风险的因素(Müller 2016b;Callaghan et al. 2017;Yampolskiy 2018),包括非智能体的开发人工智能(Drexler 2019)。
2.10.3 控制超级智能?
从狭义上讲,“控制问题”是指一旦人工智能系统具有超级智能,我们人类如何保持对它的控制(Bostrom 2014:127ff)。从更广泛的意义上讲,这是我们如何确保人工智能系统根据人类的感知结果是积极的问题(Russell 2019);这有时被称为“价值调整”。控制超级智能的难易程度很大程度上取决于超级智能系统“起飞”的速度。这导致人们特别关注具有自我改进的系统,例如 AlphaZero(Silver 等人,2018)。
这个问题的一个方面是,我们可能认为某个功能是可取的,但随后发现它会产生不可预见的后果,这些后果是如此负面,以至于我们最终不会想要该功能。这是迈达斯国王的古老问题,他希望他所触及的一切都变成金子。这个问题已经在各种示例中进行了讨论,例如“回形针最大化器”(Bostrom 2003b)或优化国际象棋表现的程序(Omohundro 2014)。
关于超级智能的讨论包括对全知生物的推测、“末日”的根本性变化,以及通过超越我们当前身体形态实现永生的承诺——因此有时它们具有明显的宗教色彩(Capurro 1993;Geraci 2008,2010;O'康奈尔 2017:160ff)。这些问题还提出了一个众所周知的认识论问题:我们能否知道全知之道(Danaher 2015)?通常的反对者已经出现:无神论者的典型反应是
人们担心计算机会变得太聪明并接管世界,但真正的问题是它们太愚蠢并且它们已经接管了世界(Domingos 2015)
新虚无主义者解释说,通过信息技术进行的“技术催眠”现已成为我们分散注意力以防止意义丧失的主要方法(Gertz 2018)。因此,两位反对者都会说,我们需要针对实际人工智能和机器人技术中发生的“小”问题制定道德规范(上文第 2.1 至 2.9 节),而对人工智能存在风险的“大道德”则不太需要(第 2.10 节) )。
3. 结束
因此,奇点再次提出了人工智能概念的问题。值得注意的是,自“达特茅斯夏季研究项目”学科诞生以来,想象力或“愿景”就发挥了核心作用(McCarthy et al. 1955 [OIR];Simon and Newell 1958)。而对这一愿景的评价也会发生巨大的变化:几十年来,我们从“人工智能是不可能的”(Dreyfus 1972)和“人工智能只是自动化”(Lighthill 1973)的口号到“人工智能将解决所有问题” (Kurzweil 1999)和“人工智能可能会杀死我们所有人”(Bostrom 2014)。这引起了媒体的关注和公共关系的努力,但也提出了这样的问题:这种“人工智能的哲学和伦理”有多少真正是关于人工智能而不是关于想象的技术。正如我们一开始所说的,人工智能和机器人技术提出了一些基本问题:我们应该如何使用这些系统,系统本身应该做什么,以及它们长期存在哪些风险。它们还挑战了人类作为地球上智慧和统治物种的观点。我们已经看到了已经提出的问题,必须密切关注技术和社会的发展,以便及早捕捉新问题,进行哲学分析,并学习传统的哲学问题。