人工智能与机器人的伦理(一)

1.简介

1.1背景的背景

1.2 AI和机器人

1.3关于政策的说明

2.主要辩论

2.1隐私和监督

2.2操纵行为

2.3 AI系统的不透明度

2.4决策系统中的偏差

2.5人机互动

2.6自动化和就业

2.7自治系统

2.8机器道德

2.9人工道德代理商

2.10奇点

3.结束

参考书目

学术工具

其他互联网资源

参考文献

研究组织

会议

政策文件

其他相关页面

相关条目

1.简介

1.1背景的背景

AI和机器人的伦理通常集中在各种各样的“关注”,这是对新技术的典型反应。 许多这样的顾虑结果都是古朴(火车对于灵魂太快); 有些是可预测的,当他们建议技术将从根本上改变人类时 有些人广泛正确但适度相关(数字技术将破坏制作摄影胶片,盒式磁带或乙烯基唱片的行业); 但有些人广泛正确和深刻的相关性(汽车将杀死孩子并从根本上改变景观)。 文章的任务是分析问题并缩小非问题。

一些技术,如核电,汽车或塑料,导致道德和政治讨论和重大的政策努力来控制这些技术的轨迹,通常只有一些损坏。 除了这样的“道德问题”之外,新技术挑战了当前的规范和概念系统,这对哲学特别感兴趣。 最后,一旦我们在其背景下了解了技术,我们需要塑造我们的社会反应,包括监管和法律。 所有这些特征也存在于新的AI和机器人技术的情况下 - 加上他们可能会在地球上的人类控制时代结束的更为根本的恐惧。

近年来AI和机器人学的伦理已经显着覆盖范围,支持相关研究,但也可能最终会破坏它:新闻界经常会谈,好像正在讨论的问题只是预测未来技术会带来什么,并且我们已经知道什么是最善的以及如何实现这一目标。 因此,按下覆盖范围侧重于风险,安全性(Brundage等,2018,在下面的其他因特网资源部分中,以下[oIr])和预测影响(例如,在就业市场上)。 结果是讨论基本上的技术问题,专注于如何实现期望的结果。 目前在政策和行业的讨论也受到形象和公共关系的动机,标签“道德”真的不超过新的“绿色”,也许用于“道德洗涤”。 对于有资格作为AI伦理问题的问题需要我们不容易知道正确的事情是什么。 从这个意义上讲,与AI的失业,盗窃或杀戮不是道德的问题,而是在某些情况下是否允许这些问题是一个问题。 本文侧重于真正的道德问题,我们不容易知道答案是什么。

最后的注意事项:AI和机器人的伦理是应用道德内的一个非常年轻的领域,具有重要的动态,但很少有问题,并且没有权威的概况 - 尽管有一个有前途的轮廓(2018年科学和新技术的伦理集团)是关于社会影响的开始(佛罗里达等人2018;塔德德奥和佛罗里达州2018; S. Taylor等人2018;沃尔斯2018; Bryson 2019; Gibert 2019; Whittlestone等,2019)和政策建议(AI HLEG 2019 [oIr]; IEEE 2019)。 因此,本文不能仅仅重现社区到目前为止所取得的成果,但必须提出一小段顺序的命令。

1.2 AI和机器人

“人工智能”(AI)的概念被广泛地理解为任何形式的人工计算系统,即显示智能行为,即,有利于达到目标的复杂行为。 特别是,我们不希望将“智力”限制为需要智力的情况,因为米斯基建议(1985年)。 这意味着我们纳入了一系列机器,包括“技术AI”中的机器,这在学习或推理中仅显示了有限的能力,而是在特定任务的自动化中擅长的,以及旨在创建一般智能代理的“通用AI”的机器。

AI以某种方式比其他技术更接近我们的皮肤 - 因此是“AI哲学”的领域。 也许这是因为AI的项目是创造有一个特征核心的机器,我们如何看到自己,即作为感受,思维,智慧的生物。 人工智能代理的主要目的可能涉及传感,建模,规划和行动,但目前的AI应用程序还包括感知,文本分析,自然语言处理(NLP),逻辑推理,游戏,决策支持系统,数据分析,预测性数据分析分析以及自主车辆和其他形式的机器人(P. Stone等,2016)。 AI可能涉及任何数量的计算技术来实现这些目标,是通过天然认知的古典象征操纵的AI,或通过神经网络(Goodfellow,Bengio和2016年Courville的机器学习; Silver等人2018)。

从历史上看,值得注意的是,“AI”一词被用上面用上面使用。 1950-1975,然后在加利福尼亚州的“AI冬季”中蒙羞。 1975-1995,并缩小。 结果,诸如“机器学习”,“自然语言处理”和“数据科学”的领域通常不会被标记为“AI”。 自加州以来。 2010年,使用者再次扩大,有时几乎所有计算机科学甚至高科技都在“AI”下。 现在它是一个骄傲的名字,蓬勃发展的行业,具有大规模的资本投资(Shoham等,2018),再次炒作的边缘。 正如Erik Brynjolfsson所说,它可能会允许我们

实际上消除了全球贫困,大量减少疾病,并为几乎所有人都提供了更好的教育。 (引用安德森,雷迪和卢克林格2018年)

虽然AI可以完全软件,但机器人是移动的物理机器。 机器人受到物理影响,通常通过“传感器”,并且它们施加到世界上的物理力,通常通过“致动器”,如夹具或车轮。 因此,自主汽车或平面是机器人,并且只有机器人的小型部分是“人形”(人形的),就像在电影中一样。 有些机器人使用AI,有些没有:典型的工业机器人盲目地遵循具有最小的感官输入,没有学习或推理(每年安装约500,000个此类新工业机器人(IFR 2019 [oIr]))。 可能会说,虽然机器人系统在公众造成更多疑虑,但AI系统更有可能对人类产生更大的影响。 此外,对于狭窄的任务集的AI或机器人系统不太可能导致新的问题而不是更灵活和自主的系统。

因此,机器人和AI因此可以被视为覆盖两个重叠的系统集:仅仅是AI的系统,仅是机器人的系统和均为的系统。 我们对这三人都感兴趣; 这篇文章的范围不仅是两个集合的交叉路口,而是联盟。

1.3关于政策的说明

政策只是本文的关切之一。 关于AI伦理的公众讨论,政治家频繁发出问题,即该问题需要新的政策,这比完成更容易:实际技术政策难以计划和执行。 它可以采取许多形式,从奖励和资金,基础设施,税收或善意的陈述,由各行为者和法律规定。 AI政策可能会与其他技术政策或一般政策的目的发生冲突。 工业化国家的政府,议会,协会和工业界近年来产生了报告和白皮书,有些人产生了良好的口号(“受信任/负责/人道/人为中心/好的/有益的AI”),但就是这样需要吗? 对于调查,请参阅Jobin,Ienca和Vayena(2019)和V.Müller的PT-AI政策文件和机构名单。

对于在道德和政策中工作的人来说,可能会倾向于高估新技术的影响和威胁,并低估当前监管如何达到(例如,产品责任)。 另一方面,企业,军事和一些公共政府的趋势是“只是谈论”,并做一些“道德洗涤”,以保持良好的公共形象并继续如之前继续。 实际实施具有法律约束力的监管将挑战现有的商业模式和实践。 实际政策不仅仅是道德理论的实施,而且遵守社会权力结构 - 以及有权力的代理将推动任何限制它们的东西。 因此,面对经济和政治力量,规定将保持牙齿的重大风险。

虽然产生了很少的实际政策,但有一些显着的开端:最新的欧盟政策文件表明“值得信赖的AI”应该是合法的,道德和技术上的强大,然后拼出七种要求:人类监督,技术稳健,隐私和数据治理,透明度,公平,福祉和问责制(AI HLEG 2019 [oIr])。 欧洲研究现在在“负责的研究和创新”(RRI)的口号下运行,“技术评估”自核电以来一直是标准领域。 职业道德也是信息技术中的标准领域,这包括本文中相关的问题。 也许是AI工程师的“道德规范”,类似于医生道德规范,是这里的一个选择(Véliz2019)。 在(L. Taylor和Purtova 2019)中解决了哪些数据科学本身也是如此。 我们还期望大量的政策最终会涵盖AI和机器人的特定用途或技术,而不是整个领域。 给出了AI伦理框架的一个有用摘要(欧洲科学和新技术的伦理组织2018:13FF)。 关于普通AI政策,参见Calo(2018)以及Crawford和Calo(2016); Stahl,Timmermans和Mittelstadt(2016年); 约翰逊和韦尔德西奥(2017年); 和giubilini和萨尔斯库尔(2018年)。 “科学与技术研究”(STS)领域经常讨论了更加政治的技术角度。 作为像发明的道德(Jasanoff 2016)的书籍(Jasanoff 2016)表明,STS的担忧通常与道德中的顾取相似(Jacobs等,2019 [oir])。 在本文中,我们分别讨论了每种类型的问题,而不是一般的AI或机器人。

2.主要辩论

在本节中,我们概述了人类使用的伦理问题,可以或多或少地自主的人类使用 - 这意味着我们看看出现的问题,这些问题不会与他人一起出现的技术。 然而,必须牢记这一点,这项技术将始终导致一些用途更容易,从而更频繁,并且阻碍其他用途。 因此,技术人工制品的设计具有伦理的相关性(Houkes和Vermaas 2010; Verbeek 2011),超越了“负责使用”,我们还需要在这一领域“负责任”。 对使用的关注不会预先假定哪种道德方法最适合解决这些问题; 他们可能很好地是美德道德(2017年vallor 2017)而不是基于结果或价值(Floridi等,2018)。 如果AI系统真正具有“智力”或其他心理属性,这一部分也是中立的问题:如果AI和机器人仅被视为自动化的目前面孔

2.1隐私和监督

关于信息技术的隐私和监测有一般性讨论(例如,MACNISH 2017; Roessler 2017),主要涉及亲自识别的私有数据和数据的访问。 隐私有几个公认的方面,例如,“让人更加坚定”,信息隐私,隐私作为人格的一个方面,控制有关自己的信息,以及保密的权利(Bennett和Raab 2006)。 隐私研究历史上专注于秘密服务的国家监测,但现在包括其他国家代理商,企业甚至个人的监视。 该技术在过去几十年中发生了显着变化,而监管是响应的缓慢(虽然有规定(欧盟)2016/679) - 结果是由最强大的球员利用的一定的无政府状态,有时在透明的景点中,有时候是透明的。

数字球体已经大大扩大:所有数据收集和存储现在都是数字化的,我们的生活越来越多,数码数据越来越多,最具数字数据连接到单一的互联网,并且在使用中有越来越多的传感器技术,可以生成关于我们生活的非数字方面的数据。 AI增加了智能数据收集的可能性以及数据分析的可能性。 这适用于整个人群的毯子监控以及经典的有针对性的监视。 此外,大部分数据在代理商之间交易,通常是收费。

与此同时,控制谁收集哪些数据,谁在数字世界中更加困难,而不是模拟纸张和电话。 许多新的AI技术放大了已知问题。 例如,照片和视频中的面部识别允许识别,从而剖析和寻找个人(Whittaker等,2018:15ff)。 这继续使用其他技术用于识别,例如“设备指纹”,这在互联网上是普通的(有时在“隐私政策”中透露)。 结果是“在这个广阔的数据海洋中,有一个令人恐惧的完整画面”(Smolan 2016:1:01)。 结果可以说是一个丑闻,仍然没有得到适当的关注。

我们留下的数据路径是我们的“免费”服务是如何支付的,但我们没有被告知数据收集和这种新原材料的价值,我们被操纵进入更多这些数据。 对于“大5”公司(亚马逊,谷歌/字母,微软,苹果,Facebook),他们的业务的主要数据集合似乎基于欺骗,利用人类弱点,进一步促进拖延,产生成瘾和操纵(Harris 2016 [oir])。 社交媒体,游戏和大多数互联网中的主要焦点在这个“监视经济”中是为了获得,维护和直接关注,从而获得数据供应。 “监视是互联网的商业模式”(Schneier 2015)。 这种监视和关注经济有时被称为“监督资本主义”(Zuboff 2019)。 它导致许多企图逃离这些公司的掌握,例如,在“极简主义”的练习中(纽波特2019年),有时通过开源运动,但似乎当天公民已经失去了完全继续逃脱所需的自主程度他们的生活和工作。 如果“所有权”是这里的正确关系,我们已经失去了对数据的所有权。 可以说,我们已经失去了对我们的数据的控制。

这些系统通常会揭示关于我们我们自己希望压制或不知道的事实:他们对我们更多的了解,而不是我们自己了解。 即使只是观察在线行为也允许深入了解我们的心理状态(Burr和Christianini 2019)和操纵(见下文2.2节)。 这导致呼吁保护“派生数据”(Wachter和Mittelstadt 2019)。 随着他畅销书的最后一句,Homo Deus,Harari询问了AI的长期后果:

当未经意识但高度智能的算法时,社会,政治和日常生活会发生什么,但高度智能的算法比我们自己所了解更好? (2016年:462)

除了安全巡逻之外,机器人设备尚未在这一领域发挥重要作用,但一旦他们在行业环境之外更常见,这将改变。 与“互联网互联网”,所谓的“智能”系统(电话,电视,烤箱,灯,虚拟助手,家庭,...),“智能城市”(Smist City“(Sennett 2018)和”智能治理“,它们被设置为成为数据收集机械的一部分提供更多详细数据,实时提供不同类型的数据。

隐私保留技术可以在很大程度上隐瞒人员或团体的身份现在是数据科学的标准主食; 它们包括(相对)匿名,访问控制(加密)以及使用完全或部分加密的输入数据(STAHL和Wright 2018)执行计算的其他模型; 在“差异隐私”的情况下,这是通过添加校准噪声来加密查询的输出来完成的(dwork等,2006; abowd 2017)。 虽然需要更多的努力和成本,但这些技术可以避免许多隐私问题。 有些公司也看到更好的隐私,作为竞争优势,可以以价格杠杆和销售。

主要的实际困难之一是实际执行规定,既有国家的水平和索赔人的个人水平。 他们必须确定负责任的法人实体,证明这一行动,也许证明意图,找到一个宣布自己有能力的法院......并最终获得法院实际执行其决定。 既熟悉的法律保护,如消费者权利,产品责任和其他民事责任或对知识产权保护往往缺失,或者难以执行。 这意味着有一个“数字化”背景的公司用于测试他们的产品,而不担心责任,同时严重捍卫他们的知识产权。 这种“互联网自由主义”有时会假设技术解决方案本身将自己照顾社会问题(Mozorov 2013)。

2.2操纵行为

监督中的AI的道德问题超出了数据和注意的累积:它们包括使用信息来操纵行为,在线和离线,以一种破坏自主理性选择的方式。 当然,操纵行为的努力是古老的,但它们可能在使用AI系统时获得新的质量。 鉴于用户对数据系统的强烈互动以及对个人的深刻知识提供,它们易于“嘲笑”,操纵和欺骗。 具有足够的先前数据,算法可用于以可能影响这些特定个人的输入,以靶向个体或小组。 “轻推”改变了环境,使其以一种可预测的方式影响行为,这对于个人来说是积极的,而且易于避免(Thaler&Sunstein 2008)。 从这里有一个滑坡到家人和操纵。

许多广告商,营销人员和在线销售人员将使用任何法律手段,以便最大化利润,包括开发行为偏见,欺骗和成瘾生成(Costa和Halpern 2019 [oIr])。 这种操纵是大部分赌博行业的商业模式,但它正在蔓延,例如,低成本的航空公司。 在网页或游戏中的界面设计中,此操作使用所谓的“黑暗模式”(Mathur等,2019)。 此时,赌博和升值物质的销售是高度监管的,但在线操纵和成瘾不是 - 尽管在线行为的操纵正在成为互联网的核心商业模式。

此外,社交媒体现在是政治宣传的主要位置。 这种影响可用于转向投票行为,如Facebook-Cambridge Analytica“Scandal”(Woolley和Howard 2017; Bradshaw,Neudert,以及Howard 2019)和 - 如果成功 - 它可能会损害个人的自主权(Susser,Roessler和Nissenbaum 2019)。

改进的ai“假装”技术使曾经是可靠的证据进入不可靠的证据 - 这已经发生在数码照片,录音和视频中。 使用任何所需内容创建(而不是改变)“深伪”的文本,照片和视频材料将很容易。 很快,与文本,手机或视频中的人员的复杂实时互动将伪造。 因此,我们无法相信数字互动,同时我们同时越来越依赖于这种互动。

更具体的问题是AI中的机器学习技术依赖于大量数据的培训。 这意味着在产品的隐私和权限之间通常会有权衡与产品的技术质量。 这影响了隐私违规行为的后果评估。

该领域的政策有其UPS和Downs:公民自由和保护个人权利受到依赖监督的其他国家机构的强烈压力。 当沟通基于字母,模拟电话通信和个人对话以及在重大法律限制下运营时,隐私保护与数字年龄相比大幅减少。

(本章完)

相关推荐