人工智能和机器人技术的伦理(三)

经典自动化取代了人类的肌肉,而数字自动化取代了人类的思想或信息处理,与物理机器不同,数字自动化非常便宜(Bostrom and Yudkowsky 2014)。因此,这可能意味着在劳动力市场上发生了更根本的变化。因此,主要问题是:这次效果会有所不同吗?创造新的工作和财富会跟上就业破坏吗?即使没有什么不同,过渡成本是多少,谁承担了它们?我们是否需要对数字自动化的成本和收益进行公平分配社会调整?

对AI失业问题的回应范围从令人震惊的(Frey and Osborne 2013; Westlake 2014)到中性(Metcalf,Keller和Boyd 2016; Calo 2018; Frey 2018; Frey 2019; Frey 2018),到乐观2016; 2019a)。原则上,自动化的劳动力市场效应似乎已被相当理解地涉及两个渠道:

(i)不同技能工人与影响劳动力需求的新技术之间的相互作用的性质,以及(ii)通过随之而来的劳动力供应和产品市场的变化,技术进步的平衡影响。 (Goos 2018:362)

由于AI和机器人的自动化,目前在劳动力市场中似乎发生的事情是“工作两极分化”或“哑铃”形状(Goos,Manning和Salomons 2009):高技能的技术工作需求,高薪,高薪,高薪低技能的服务工作的需求和薪水不高,但是工厂和办公室的资格资格工作,即大部分工作都承受着压力和减轻,因为它们相对可预测,并且最有可能是自动化的(Baldwin 2019)。

假设每年的增长率为1%,则可能会实现巨大的生产率增长,这(凯恩斯1930年)预计(Keynes 1930)预计会发生“休闲时代”。实际上,我们已经达到了他2030年预期的水平,但是我们仍在工作 - 更加艰巨并发明了更多的组织水平。哈拉里(Harari)解释了这种经济发展如何使人类克服饥饿,疾病和战争,现在我们的目标是通过AI使他的永生和永恒的幸福,从而使他的头衔同志(Harari 2016:75)。

总的来说,失业问题是一个问题,即社会中的商品应如何分配。一个标准的观点是,应从“无知的面纱”背后合理地决定分配正义(Rawls 1971),即,好像一个人不知道一个人实际上会占领的地位(劳动者或工业家等) 。罗尔斯认为,选定的原则将支持基本的自由和分配,这对社会中最不愿优惠的成员最有利。 AI经济似乎具有三个使正义不太可能的特征:首先,它在不受监管的环境中运作,在这种环境中通常很难分配责任。其次,它在具有“获胜者所有”功能的市场中运作,垄断很快就会发展。第三,数字服务行业的“新经济”基于无形资产,也称为“没有资本的资本主义”(Haskel and Westlake 2017)。这意味着很难控制不依赖特定位置的物理工厂的跨国数字公司。这三个功能似乎表明,如果我们将财富分配给自由市场力量,结果将是一个不公正的分布:这确实是我们已经看到的发展。

一个没有得到太多关注的有趣问题是AI的发展是否具有环境可持续性:像所有计算系统一样,AI系统产生的废物很难回收,它们消耗了大量的能量,尤其是用于培训机器学习的浪费系统(甚至用于加密货币的“采矿”)。同样,看来这个空间中的一些演员将这种费用卸载给了一般社会。

2.7自主系统

在讨论自主系统中,有几种自治概念。在哲学辩论中涉及一个更强的观念,在哲学辩论中,自治是责任和人格的基础(Christman 2003 [2018])。在这种情况下,责任意味着自主权,但不相反,因此可以在不引发责任问题的情况下具有多个技术自主权的系统。机器人技术中自治的较弱,更具技术性的概念是相对和逐渐的:据说在一定程度上对人类控制是自主的(Müller,2012年)。这里与AI中的偏见和不透明度问题有一个相似之处,因为自治也涉及权力关系:谁在控制中,谁负责?

一般来说,一个问题是自主机器人在多大程度上提出问题的问题,我们目前的概念方案必须适应,或者它们是否仅需要技术调整。在大多数司法管辖区中,有一个复杂的民事和刑事责任制度来解决此类问题。技术标准,例如,为了在医疗环境中安全使用机械,可能需要进行调整。对于此类安全至关重要的系统和“安全应用程序”,已经有一个“可验证的AI”字段。 IEEE(电气和电子工程师研究所)和BSI(英国标准机构)等机构产生了“标准”,尤其是在更多技术子问题上,例如数据安全和透明度。在陆地,水下,水下,空气或空间中的许多自治系统中,我们讨论了两个样本:自动驾驶汽车和自动武器。

2.7.1示例(a)自动驾驶汽车

自动驾驶汽车有望减少人类目前造成的非常重大的损害 - 每年大约有100万人被杀死,造成更多伤害,受伤,环境受到污染,地球被混凝土和柏油碎石密封,充满了停放的汽车等。但是,似乎对自动驾驶汽车的行为以及应如何在车辆运行的复杂系统中分配的责任和风险似乎存在疑问。汽车(SAE International 2018年)实际上。)

在这种情况下,有一些关于“手推车问题”的讨论。在经典的“手推车问题”中(Thomson 1976; Woollard and Howard-Snyder 2016:第2节)各种困境。最简单的版本是一条轨道上的手推车火车的火车,该轨道正朝着五个人前进并杀死它们,除非火车被转移到侧轨上,但是在那条轨道上,有一个人,如果火车乘坐火车,他们将被杀死那个侧轨。该示例可以追溯到(脚(Foot)1967:6)中的一个言论,他讨论了许多难以容忍和预期的作用后果不同的困境案例。 “手推车问题”不应该描述实际的道德问题或以“正确”的选择来解决。相反,它们是思想实例,其中选择人为地限制在有限数量的不同的一次性选项以及代理具有完美知识的地方。这些问题被用作研究道德直觉和理论的理论工具,尤其是主动进行与允许发生某些事情,预期与容忍后果与后果主义者与其他规范方法之间的区别(Kamm 2016)。这种类型的问题使人想起了实际驾驶和自动驾驶中遇到的许多问题(Lin 2016)。然而,令人怀疑的是,实际的驾驶员或自动驾驶汽车将不得不解决手推车问题(但请参见Keeling 2020)。尽管自动驾驶汽车手推车问题引起了很多媒体的关注(Awad等,2018),但它们似乎并未提供任何新的道德理论或自动驾驶汽车编程的新事物。

驾驶方面更常见的道德问题,例如超越,危险超车,不保持安全距离等。追求个人兴趣与共同利益的经典问题。其中的绝大多数都涵盖了有关驾驶的法律法规。因此,编程汽车以“按规则”驾驶,而不是“借助乘客的利益”或“实现最大效用”,因此将其缩减为编程道德机器的标准问题(请参阅第2.9节)。关于何时打破规则的礼貌规则可能还有其他酌处权规则(Lin 2016),但这似乎是将标准注意事项(规则与实用程序)应用于自动驾驶汽车案例的情况。

该领域的显着政策努力包括该报告(德国联邦运输和数字基础设施2017),这强调安全是主要目标。规则10州

在自动化和连接的驾驶系统的情况下,以前是个人从驾车者转移到技术系统的制造商和运营商以及负责采取基础设施,政策和法律决策的机构的唯一责任制。

(请参阅下面的第2.10.1节)。与美国同行有关的关于自动驾驶许可自动驾驶的德国和欧盟法律的限制要严格得多,在美国,“对消费者进行测试”是某些公司使用的策略 - 不符合消费者或可能的受害者的知情同意。

2.7.2示例(b)自动武器

自动武器的概念相当古老:

例如,我们可能会发射完全自主的土地,海上和空中汽车,而不是攻击简单的导弹或远程驾驶的车辆,而不是进行复杂,远程侦察和攻击任务。 (Darpa 1983:1)

当时,该提议被嘲笑为“幻想”(Dreyfus,Dreyfus和Athanasiou 1986:IX),但现在是现实,至少对于更容易识别的目标(导弹,飞机,飞机,船只等),但不适合人类战斗人员。反对(致命的)自治武器系统(AWS或法律)的主要论点是,它们支持法外杀戮,从人类中夺走责任,并使战争或杀戮更有可能 - 有关详细的问题,请参见Lin,Bekey和Abney (2008:73–86)。

看来,降低使用此类系统(自动驾驶汽车,“火灾”导弹或装有炸药的无人机)并降低承担责任的可能性会增加其使用的可能性。一方可以不受惩罚杀死的关键不对称性,因此很少有理由不这样做,在传统的无人机战争中,遥控武器(例如,美国在巴基斯坦)。很容易想象一个小型无人机,可以搜索,识别和杀死一个人或可能的人类。这些是竞选活动引发的案件,以阻止杀手机器人和其他激进主义者团体。有些人似乎等同于说自动武器确实是武器……而武器杀死了,但我们仍然使它们数量巨大。关于问责制,自动武器可能会更加困难地认同和起诉负责任的代理商,但这尚不清楚,因为至少在常规战争中可以保留的数字记录,这尚不清楚。分配惩罚的困难有时称为“报应差距”(Danaher 2016a)。

另一个问题是,在战争中使用自动武器是否会使战争变得更糟,或者使战争变得不那么糟糕。如果机器人减少了战争中的战争和犯罪,答案很可能是积极的,并且已被用作支持这些武器的论点(Arkin 2009;Müller2016a),也可以作为反对他们的论点(Amoroso and Tamburrini 2018)。可以说,主要威胁不是在常规战争中使用此类武器,而是在不对称的冲突中或包括罪犯在内的非国家代理商中使用。

还说自动武器不能遵守国际人道主义法,这需要遵守杰出原则(战斗人员和平民之间),(武力)和军事冲突中的军事必要性(A. Sharkey)(A. Sharkey) 2019)。的确,战斗人员和非战斗人员之间的区别很难,但是平民和军船之间的区别很容易 - 因此,如果他们确实违反了人道主义法,我们就不应建造和使用这种武器。还提出了其他担忧,即被自动武器杀害会威胁人类的尊严,但即使是禁止这些武器的捍卫者似乎也说这些不是很好的论点:

还有其他武器和其他技术也损害了人类尊严。鉴于此,以及该概念固有的歧义,可以在反对AWS的论点中借鉴几种异议,而不是仅仅依靠人类的尊严。 (A. Sharkey 2019)

在军事指南中,将人类“在循环中”或“循环”中的“有意义的控制”方法(Santoni de Sio和van den Hoven 2018)讨论了很多。已经讨论过分配责任杀害自主武器的困难,并提出了“责任差距”(尤其是Rob Sparrow 2007),这意味着人类和机器都不可能负责。另一方面,我们并不认为在每个事件中,都有对该事件负责的人,而真正的问题很可能是风险分配(Simpson andMüller,2016年)。风险分析(Hansson 2013)表明,确定谁面临风险,谁是潜在的受益人以及谁做出决定至关重要(Hansson 2018:1822-1824)。

2.8机器道德

机器伦理是机器,“伦理机器”,机器作为主体的伦理,而不是人类使用机器作为对象的机器。通常不清楚这应该涵盖所有AI伦理还是成为其中的一部分(Floridi and Saunders 2004; Moor 2006; Anderson和Anderson 2011; Wallach and Asaro 2017)。有时看来,这里似乎有(可疑的)推断,如果机器在道德上相关的方式行动,那么我们就需要机器伦理。因此,有些人使用更广泛的概念:

机器伦理学关注的是确保机器对人类用户以及其他机器的行为在道德上是可以接受的。 (Anderson and Anderson 2007:15)

例如,这可能仅包括产品安全性。其他作者听起来很雄心勃勃,但使用较狭窄的概念:

人工智能推理应该能够考虑社会价值观,道德和道德考虑;权衡不同利益相关者在各种多元文化背景下所拥有的价值观的优先级;解释其推理;并保证透明度。 (Dignum 2018:1,2)

机器伦理中的一些讨论表明,在某种意义上,机器可以成为负责其行为的道德代理,或者是“自主道德代理人”(参见Van Wynsberghe和Robbins 2019)。机器伦理的基本思想现在正在进入实际的机器人技术中,在这些机器人方面,这些机器在任何实质意义上通常都不是人工道德代理的假设(Winfield等,2019)。有时可以观察到,编程为遵守道德规则的机器人很容易被修改以遵循不道德的规则(Vanderelst和Winfield 2018)。

艾萨克·阿西莫夫(Isaac Asimov)对机器伦理可能采取“法律”形式的想法是著名的,他提出了“三种机器人法则”(Asimov 1942):

第一定律 - 机器人可能不会伤害人类,或者通过无所作为,允许人类受到伤害。第二定律 - 机器人必须遵守人类颁发的命令,除非这样的命令与第一法律相抵触。第三定律 - 机器人必须保护自己的存在,只要这种保护与第一或第二法律不冲突。

然后,阿西莫夫(Asimov)在许多故事中展示了这三个法律之间的冲突如何使使用它们的分层组织有问题。

目前尚不清楚“机器伦理”有一个一致的概念,因为较弱的版本有危险地将“具有道德规范”的危险降低到通常不会被认为是足够的概念(例如,没有“反思”甚至没有“行动”的情况下);向人为的道德代理人转向人为的概念可能会描述一个(目前是空的设置)。

2.9人工道德代理人

如果将机器伦理涉及道德代理人,那么这些代理人可以称为“人为的道德代理人”,具有权利和责任。但是,关于人造实体的讨论挑战了许多道德上的许多共同概念,从人类案件中理解这些概念可能非常有用(参见Misselhorn 2020; Powers和Ganascia即将到来)。

几位作者在少苛刻的意义上使用“人工道德代理人”,从软件工程中使用“代理”从责任和权利问题中借用(Allen,Varner和Zinser 2000)。詹姆斯·摩尔(James Moor(2006))区分了四种类型的机器代理:道德影响力(例如机器人骑师),内在的伦理代理(例如,安全自动驾驶仪),明确的道德代理(例如,使用形式上的方法来估计效用)和全部的伦理代理(谁可以做出明确的道德判断,并且通常有能力合理地证明他们。普通成年人是一个充分的道德代理人”。通过在(运营道德)中对其进行编程,通过“发展”伦理本身(功能性道德),并最终以充分的智慧和感知来“发展”伦理学本身(功能性道德)(Allen,Smit和Wallach 2005; Moor 2006)。有时编程的代理不被视为“完整”的代理,因为它们“没有理解能力”,就像大脑中的神经元一样(Dennett 2017; Hakli andMäkelä2019)。

在某些讨论中,“道德患者”的概念发挥了作用:道德代理人承担责任,而道德患者拥有权利,因为对他们的伤害很重要。很明显,某些实体是患者而没有特工,例如,简单的动物会感到疼痛但不能做出合理的选择。另一方面,通常可以理解所有药物也将是患者(例如,在康德框架中)。通常,一个人应该成为使实体成为负责任的代理人,可以履行职责并成为道德问题的对象的人。这种人格通常是与惊人意识,意图和自由意志相关的深层概念(Frankfurt 1971; Strawson 1998)。托伦斯(Torrance,2011年)建议“人工(或机器)伦理可以定义为设计机器,这些机器在人类完成时做的事情表明这些人拥有“道德地位””(2011:116)愿意成为“道德生产力和道德接受能力”(2011:117) - 道德药物和患者的表达。

2.9.1机器人的责任

有广泛的共识,即问责制,责任和法治是面对新技术必须维持的基本要求(欧洲科学和新技术道德集团,2018年,第18页),但在机器人的情况下是问题这是如何做到这一点以及如何分配责任。如果机器人行动,他们本身是否对自己的行为负责,负责或负责?还是风险分配应该优先于责任讨论?

传统的责任分配已经发生:汽车制造商负责汽车的技术安全,驾驶员负责驾驶,机械师负责适当的维护,公共当局负责道路的技术条件等。一般来说

基于AI的决策或行动的影响通常是许多参与者之间无数互动的结果,包括设计师,开发人员,用户,软件和硬件。…随着分布式代理商,分布式责任。 (Taddeo and Floridi 2018:751)。

这种分布如何发生并不是人工智能特有的问题,但在这种情况下它变得特别紧迫(Nyholm 2018a,2018b)。在经典控制工程中,分布式控制通常是通过控制层次结构加上跨这些层次结构的控制循环来实现的。

(本章完)

相关推荐