人工智能和机器人技术的伦理(二)
2.2 行为操纵
人工智能在监控中的伦理问题不仅仅是数据的积累和注意力的方向:它们包括利用信息来操纵线上和线下的行为,从而破坏自主理性选择。当然,操纵行为的努力由来已久,但当他们使用人工智能系统时,他们可能会获得新的品质。鉴于用户与数据系统的频繁交互以及由此提供的对个人的深入了解,他们很容易受到“助推”、操纵和欺骗。有了足够的先验数据,算法就可以用于定位个人或小团体,只需提供可能影响这些特定个人的输入类型。 “推动”会改变环境,从而以可预测的方式影响行为,这对个人有利,但避免起来既简单又便宜(Thaler & Sunstein 2008)。从这里到家长作风和操纵有一个滑坡。
许多广告商、营销人员和在线卖家将使用任何可以使用的合法手段来实现利润最大化,包括利用行为偏见、欺骗和上瘾(Costa 和 Halpern 2019 [OIR])。这种操纵是许多赌博和游戏行业的商业模式,但它正在蔓延到低成本航空公司等领域。在网页或游戏的界面设计中,这种操作使用所谓的“深色模式”(Mathur et al. 2019)。目前,赌博和成瘾物质的销售受到严格监管,但在线操纵和成瘾却不受监管——尽管操纵在线行为正在成为互联网的核心商业模式。
此外,社交媒体现在是政治宣传的主要场所。这种影响力可用于引导投票行为,如 Facebook-Cambridge Analytica“丑闻”(Woolley 和 Howard 2017;Bradshaw、Neudert 和 Howard 2019),如果成功的话,可能会损害个人的自主权(Susser、Roessler) ,和尼森鲍姆 2019)。
改进的人工智能“伪造”技术使曾经可靠的证据变成了不可靠的证据——数码照片、录音和视频已经发生过这种情况。很快,创建(而不是更改)带有任何所需内容的“深度伪造”文本、照片和视频材料将变得非常容易。很快,通过文本、电话或视频与人进行复杂的实时交互也将被伪造。因此,我们不能信任数字交互,同时我们也越来越依赖这种交互。
一个更具体的问题是,人工智能中的机器学习技术依赖于大量数据的训练。这意味着隐私和数据权与产品的技术质量之间通常需要进行权衡。这影响了对侵犯隐私行为的后果主义评估。
这一领域的政策有好有坏:公民自由和个人权利的保护面临着来自企业游说、特勤局和其他依赖监视的国家机构的巨大压力。与前数字时代相比,隐私保护已大大减少,当时的通信基于信件、模拟电话通信和个人对话,并且监控是在严格的法律约束下进行的。
尽管欧盟《通用数据保护条例》(条例 (EU) 2016/679)加强了隐私保护,但美国和中国更倾向于在监管较少的情况下实现增长(Thompson 和 Bremmer 2018),可能希望这提供竞争优势。显然,国家和商业行为者在人工智能技术的帮助下增强了侵犯隐私和操纵人们的能力,并将继续这样做以促进他们的特殊利益——除非为了整个社会的利益而受到政策的限制。
2.3 人工智能系统的不透明性
不透明和偏见是现在有时被称为“数据伦理”或“大数据伦理”的核心问题(Floridi 和 Taddeo 2016;Mittelstadt 和 Floridi 2016)。用于自动化决策支持和“预测分析”的人工智能系统引发了“对缺乏正当程序、问责制、社区参与和审计的严重担忧”(Whittaker et al. 2018:18ff)。它们是权力结构的一部分,其中“我们正在创建限制和限制人类参与机会的决策流程”(Danaher 2016b:245)。同时,受影响的人通常不可能知道系统如何得出此输出,即系统对该人来说是“不透明的”。如果系统涉及机器学习,那么即使对于专家来说,它通常也是不透明的,他们不知道如何识别特定模式,甚至不知道该模式是什么。这种不透明性加剧了决策系统和数据集的偏差。因此,至少在希望消除偏见的情况下,对不透明性和偏见的分析是齐头并进的,政治反应必须同时解决这两个问题。
许多人工智能系统依赖于(模拟)神经网络中的机器学习技术,这些技术将从给定的数据集中提取模式,无论是否提供“正确”的解决方案;即监督、半监督或无监督。通过这些技术,“学习”捕获数据中的模式,并以对系统做出的决策有用的方式标记这些模式,而程序员并不真正知道系统使用了数据中的哪些模式。事实上,程序正在不断发展,因此当新数据进入或给出新反馈(“这是正确的”,“这是不正确的”)时,学习系统使用的模式会发生变化。这意味着结果对于用户或程序员来说并不透明:它是不透明的。此外,程序的质量在很大程度上取决于所提供数据的质量,遵循古老的口号“垃圾输入,垃圾输出”。因此,如果数据已经涉及偏见(例如,警方有关嫌疑人肤色的数据),那么程序将重现该偏见。有人建议在“数据表”中对数据集进行标准描述,这将使识别此类偏差更加可行(Gebru et al. 2018 [OIR])。最近还有一些关于机器学习系统局限性的重要文献,这些系统本质上是复杂的数据过滤器(Marcus 2018 [OIR])。一些人认为,当今的道德问题是人工智能采取的技术“捷径”的结果(克里斯蒂安尼尼即将出版)。
有几项旨在“可解释的人工智能”的技术活动,首先是(Van Lent、Fisher 和 Mancuso 1999;Lomas 等人 2012),以及最近的 DARPA 项目(Gunning 2017 [OIR])。更广泛地说,需求
一种阐明和阐明计算人工制品在社会中行使的权力结构、偏见和影响的机制(Diakopoulos 2015:398)
有时称为“算法问责报告”。这并不意味着我们期望人工智能“解释其推理”——这样做需要比我们目前赋予人工智能系统更严格的道德自主权(见下文§2.10)。
政治家亨利·基辛格指出,如果我们依赖一个被认为优于人类但无法解释其决策的系统,那么民主决策就会出现根本问题。他说我们可能已经“在寻找指导哲学的过程中产生了一种潜在的主导技术”(Kissinger 2018)。 Danaher (2016b) 将此问题称为“算法统治的威胁”(采用之前 Aneesh 2002 [OIR], 2006 中“算法统治”的用法)。同样,Cave(2019)强调,我们需要采取更广泛的社会行动,实现更加“民主”的决策,以避免人工智能成为公共管理和其他领域卡夫卡式坚不可摧的压制系统的一股力量。奥尼尔在其颇具影响力的著作《数学毁灭性武器》(2016 年)以及杨和洛奇(2019 年)中强调了这场讨论的政治角度。
在欧盟,(EU)2016/679 法规已考虑到其中一些问题,该法规预见消费者在面临基于数据处理的决定时将拥有合法的“解释权”——该规定能走多远以及执行到何种程度仍存在争议(Goodman 和 Flaxman 2017;Wachter、Mittelstadt 和 Floridi 2016;Wachter,米特尔施塔特和拉塞尔 2017)。泽里利等人。 (2019)认为这里可能存在双重标准,我们要求对基于机器的决策进行高水平的解释,尽管人类有时自己无法达到该标准。
2.4 决策系统中的偏差
自动化人工智能决策支持系统和“预测分析”对数据进行操作并产生决策作为“输出”。该输出的范围可能从相对琐碎到非常重要:“这家餐厅符合您的喜好”,“X 射线中的患者已完成骨骼生长”,“信用卡申请被拒绝”,“捐赠器官将被给予另一名患者”、“保释被拒绝”或“目标已确定并参与”。数据分析通常用于商业、医疗保健等领域的“预测分析”,以预见未来的发展——由于预测更容易,它也将成为一种更便宜的商品。预测的一种用途是“预测性警务”(NIJ 2014 [OIR]),许多人担心这可能会导致公共自由受到侵蚀(Ferguson 2017),因为它可以剥夺行为被预测的人的权力。然而,许多对治安的担忧似乎都取决于未来的场景,即执法部门预见并惩罚计划中的行动,而不是等到犯罪发生才采取行动(就像 2002 年的电影《少数派报告》中那样)。一个担忧是,这些系统可能会延续用于建立系统的数据中已经存在的偏见,例如,通过增加警察在某个地区的巡逻并发现该地区更多的犯罪行为。实际的“预测警务”或“情报主导警务”技术主要关注何时何地最需要警察部队的问题。此外,可以通过工作流程支持软件(例如“ArcGIS”)向警察提供更多数据,为他们提供更多控制并促进更好的决策。这是否有问题取决于对这些系统技术质量的适当信任程度,以及对警察工作本身目标的评估。也许最近的一篇论文标题指出了正确的方向:“预测性警务中的人工智能伦理:从威胁模型到护理伦理”(Asaro 2019)。
当做出不公平的判断时,偏见通常会出现,因为做出判断的个人受到与当前问题实际上无关的特征的影响,通常是对群体成员的歧视性先入之见。因此,偏见的一种形式是一个人习得的认知特征,但通常并不明确。有关的人可能不知道有偏见 - 他们甚至可能诚实且明确地反对他们发现的偏见(例如,通过Priming,参见Graham and Lowery 2004)。关于公平与机器学习中的偏见,请参见Binns(2018)。
除了学习偏见的社会现象外,人类的认知系统通常容易具有各种“认知偏见”,例如“确认偏见”:人类倾向于将信息解释为证实他们已经相信的东西。人们通常认为第二种形式的偏见会阻碍理性判断的表现(Kahnemann 2011) - 尽管至少某些认知偏见会产生进化的优势,例如,对资源的经济使用来直观判断。 AI系统是否可以具有这种认知偏见,这是一个问题。
当数据表现出系统误差时,例如“统计偏差”时,数据中存在第三种形式的偏差。严格来说,任何给定的数据集都只会对单一问题公正,因此仅创建数据集涉及可以将其用于其他类型的问题的危险,然后结果将其偏向于这种危险。基于此类数据的机器学习不仅将无法识别偏见,而且将“历史偏见”编纂和自动化。这种历史偏见是在亚马逊的自动招聘筛查系统(2017年初停产)中发现的,该系统歧视了妇女,这显然是因为该公司在招聘过程中有歧视妇女的历史。 “纠正罪犯管理替代制裁的概要”(Compas)是一种预测被告是否会再次犯罪的系统,发现与一群随机人类一样成功(准确性65.2%)(精度为65.2%)为黑人被告产生更多的误报和较少的假否定性。因此,这种系统的问题在于偏见加上对系统过多信任的人。在Eubanks(2018)中,研究了美国这种自动化系统的政治维度。
在发现和消除AI系统中的偏见方面有重大的技术努力,但是可以说这些阶段处于早期阶段:参见英国道德AI和机器学习研究所(Brownsword,Scotford和Yeung 2017; Yeung and Lodge 2019) 。似乎技术修复具有其限制,因为他们需要一个数学上的公平概念,这很难得到(Whittaker等,2018:24FF; Selbst等人,2019年),正式的“种族”概念也是如此(参见Benthall and Haynes 2019)。机构提案(Veale and Binns 2017)。
2.5人类机器人相互作用
人类机器人互动(HRI)本身就是一个学术领域,现在非常关注道德问题,双方的感知动态以及包括CO在内的社会背景的不同利益和复杂性的不同利益(包括CO) - 工作(例如Arnold和Scheutz 2017)。对机器人技术道德规范的有用调查包括Calo,Froomkin和Kerr(2016); Royakkers和van Est(2016); Tzafestas(2016);标准论文集是Lin,Abney和Jenkins(2017)。
虽然AI可以用来操纵人类相信和做事(请参阅第2.2节),但如果它们的过程或外表涉及欺骗,威胁人类的尊严或违反康德的要求,它也可以用来驱动机器人有问题的机器人。为人类”。人类很容易将心理特性归因于对象,并同情它们,尤其是当这些物体的外观与生物的外观相似时。这可以用来欺骗人类(或动物)将比他们应有的智力甚至情感意义归因于机器人或AI系统。在这方面,类人动物机器人技术的某些部分是有问题的(例如,伊希古罗的遥控双子素),并且有些情况显然是出于公共关系目的而具有欺骗性(例如,关于汉森机器人的“ Sophia”的能力)。当然,商业道德和法律的一些相当基本的限制也适用于机器人:产品安全性和责任或广告中的无抑制作用。看来这些现有的限制会照顾许多提出的问题。但是,在某些情况下,人类人类互动的方面表现出了特别的方式,这些方面可能无法被机器人所取代:护理,爱情和性别。
2.5.1示例(a)护理机器人
目前,在实际环境中,机器人在卫生保健中使用机器人正在处于概念研究的水平,但它可能会在几年内成为一项可用技术,并且对人性化护理的反乌托邦未来提出了许多担忧( A. Sharkey和N. Sharkey 2011;当前的系统包括支持人类护理人员/看护者(例如,在抬高患者或运输材料)的机器人,使患者能够自己做某些事情的机器人(例如,用机器人臂饮食),但也给患者提供了机器人作为公司和舒适(例如,“ paro”机器人密封件)。有关概述,请参见Van Wynsberghe(2016); Nørskov(2017); Fosch-Villaronga和Albo-Canals(2019),针对用户Draper等人的调查。 (2014)。
护理问题脱颖而出的原因之一是,人们认为我们将需要老化社会的机器人。这个论点使人有问题的假设,即,随着寿命更长的人将需要更多的照顾,并且不可能吸引更多人类从事关怀专业。这也可能显示出对年龄的偏见(Jecker即将到来)。最重要的是,它忽略了自动化的性质,这不仅仅是替换人类,还涉及允许人类更有效地工作。目前尚不清楚这里确实存在一个问题,因为讨论主要集中于对机器人的恐惧,但护理中的实际和可预见的机器人是经典的技术任务自动化的辅助机器人。因此,它们仅是在护理环境中执行任务的行为意义上的“护理机器人”,而不是在人类对患者“关心”的意义上。似乎“受到照顾”的成功依赖于这种有意的“护理”,可预见的机器人无法提供。如果有的话,机器人在护理中的风险是没有这种故意护理的情况,因为可能需要减少人类护理人员。有趣的是,照顾某件事,甚至虚拟代理,对护理人员本身可能是有益的(Lee等人,2019年)。一个假装照顾的系统将具有欺骗性,因此有问题 - 除非欺骗被足够大的效用增益来抵消(Coeckelbergh 2016)。一些假装在基本层面上“护理”的机器人(paro密封)以及其他机器人正在制作中。在某种程度上,可能会受到机器的照顾,这是对患者的进步。
2.5.2示例(b)性机器人
几位技术乐观主义者认为,人类可能会对与机器人的性爱和陪伴感兴趣并对此想法感兴趣(Levy 2007)。鉴于人类性偏好的变化,包括性玩具和性玩偶,这似乎很可能是:问题是是否应该制造和推广此类设备,以及在这个敏感地区是否应该有限制。最近,它似乎已经进入了“机器人哲学”的主流(Sullins 2012; Danaher and McArthur 2017; N. Sharkey等人2017 [OIR]; Bendel 2018; Bendel 2018; Devlin 2018)。
人类长期以来一直对物体具有深厚的情感依恋,因此,陪伴甚至对可预测的Android的爱很有吸引力,尤其是对于与实际人类挣扎的人,并且已经更喜欢狗,猫,鸟类,计算机或Tamagotchi。 Danaher(2019b)反对(Nyholm and Frank 2017)反对这些可能是真正的友谊,因此是一个宝贵的目标。当然,即使缺乏深度,这种友谊也可能会增加整体效用。在这些讨论中,有一个欺骗问题,因为机器人目前不能(目前)表示它说什么,也不能对人类有感受。众所周知,人类倾向于将感觉和思想归因于行为的实体,即它们具有知觉,甚至清楚地表现出根本没有行为的无生命物体。同样,为欺骗付款似乎是传统性行业的基础。
最后,有些担忧经常伴随性行为,即同意(Frank and Nyholm,2017年),美学问题,并担心人类可能会被某些经历“腐败”。尽管看起来看起来很老,但人类的行为受到经验的影响,色情或性机器人可能支持其他人类作为欲望的对象,甚至是虐待者的感知,从而破坏了更深的性和色情经历。在这种情况下,“反对性机器人运动”认为这些装置是奴隶制和卖淫的延续(Richardson 2016)。
2.6自动化和就业
显然,AI和机器人技术将带来生产率的显着提高,从而使整体财富获得了巨大的收益。尽管对“增长”的重视是一种现代现象,但提高生产力的尝试通常是经济的特征(Harari 2016:240)。但是,通过自动化的生产率提高通常意味着相同输出所需的人类所需的人数较少。但是,这不一定意味着总体就业的损失,因为可用的财富增加了,并且可以充分增加需求以抵消生产力增长。从长远来看,工业社会的生产力更高,导致了整体上的财富。过去发生了重大劳动力市场中断,例如,农业在1800年在欧洲和北美地区雇用了超过60%的劳动力,而到2010年,它雇用了CA。在欧盟,最富有的国家的欧盟中有5%(欧盟委员会2013年)。在1950年至1970年的20年中,英国雇用的农业工人人数减少了50%(Zayed and Loft 2019)。这些破坏中的一些导致劳动密集型的行业移至劳动力成本较低的地方。这是一个持续的过程。