人工智能和机器人技术的伦理(一)
一、简介
1.1 领域背景
1.2 人工智能与机器人
1.3 政策说明
二、主要争论
2.1 隐私和监控
2.2 行为操纵
2.3 人工智能系统的不透明性
2.4 决策系统中的偏差
2.5 人机交互
2.6 自动化与就业
2.7 自治系统
2.8 机器伦理
2.9 人工道德主体
2.10 奇点
3. 结束
参考书目
学术工具
其他互联网资源
参考
研究机构
会议
政策文件
其他相关页面
相关条目
一、简介
1.1 领域背景
人工智能和机器人技术的伦理往往集中在各种“担忧”上,这是对新技术的典型反应。许多这样的担忧被证明是相当古怪的(火车对灵魂来说太快了);有些人认为技术将从根本上改变人类(电话会破坏个人交流,写作会破坏记忆,录像带会让外出变得多余),这是可以预见的错误;有些大体上是正确的,但有一定的相关性(数字技术将摧毁胶片、盒式磁带或黑胶唱片的制造行业);但有些是广泛正确且密切相关的(汽车会杀死儿童并从根本上改变景观)。像这样的文章的任务是分析问题并消除非问题。
一些技术,如核能、汽车或塑料,已经引起了道德和政治讨论,并产生了重大的政策努力来控制这些技术的发展轨迹,通常只有在造成一些损害时才会采取这种措施。除了这种“伦理问题”之外,新技术还挑战了当前的规范和概念体系,这是哲学特别感兴趣的。最后,一旦我们了解了一项技术的背景,我们就需要制定我们的社会反应,包括监管和法律。所有这些特征也存在于新的人工智能和机器人技术中,加上更根本的担忧,即它们可能会结束人类控制地球的时代。
近年来,人工智能和机器人技术的伦理问题得到了媒体的广泛关注,这支持了相关研究,但最终也可能会破坏它:媒体经常谈论好像正在讨论的问题只是对未来技术将带来什么的预测,并且作为尽管我们已经知道什么是最道德的以及如何实现这一目标。因此,新闻报道的重点是风险、安全(Brundage et al. 2018,在下面的其他互联网资源部分,以下简称 [OIR])和影响预测(例如,对就业市场的影响)。结果是对本质上技术问题的讨论,重点是如何实现期望的结果。当前政策和行业的讨论也是出于形象和公共关系的推动,其中“道德”的标签实际上与新的“绿色”没什么区别,也许是用于“道德清洗”。对于一个符合人工智能伦理问题的问题来说,我们并不容易知道什么是正确的做法。从这个意义上说,人工智能导致的失业、盗窃、杀人等行为在伦理上并不是问题,但在某些情况下是否允许才是问题。本文重点关注我们并不容易知道答案的真正道德问题。
最后一个警告:人工智能和机器人技术的伦理是应用伦理中一个非常年轻的领域,具有显着的动态,但很少有明确的问题,也没有权威的概述——尽管有一个有希望的轮廓(欧洲科学和新技术伦理小组2018),社会影响也已开始(Floridi et al. 2018;Taddeo and Floridi 2018;S. Taylor et al. 2018;Walsh 2018;Bryson 2019;Gibert 2019),以及政策建议(AI HLEG 2019 [OIR];IEEE 2019)。因此,本文不能仅仅重现社区迄今为止所取得的成就,而必须在几乎不存在秩序的情况下提出一种排序。
1.2 人工智能与机器人
“人工智能”(AI)的概念被广泛理解为任何一种表现出智能行为的人工计算系统,即有利于实现目标的复杂行为。特别是,我们不希望将“智能”限制为如果由人类完成就需要智能的事情,正如明斯基所建议的那样(1985)。这意味着我们整合了一系列机器,包括“技术人工智能”中的机器,这些机器在学习或推理方面仅表现出有限的能力,但擅长特定任务的自动化,以及“通用人工智能”中的机器,旨在创建通用的人工智能智能代理。
人工智能在某种程度上比其他技术更贴近我们的皮肤——这就是“人工智能哲学”领域。也许这是因为人工智能的项目是创造具有人类如何看待自己的核心特征的机器,即感觉、思考、智能生物。人工智能代理的主要目的可能涉及感知、建模、规划和行动,但当前的人工智能应用还包括感知、文本分析、自然语言处理(NLP)、逻辑推理、游戏、决策支持系统、数据分析、预测分析,以及自动驾驶汽车和其他形式的机器人(P. Stone 等人,2016)。人工智能可能涉及多种计算技术来实现这些目标,无论是受自然认知启发的经典符号操作人工智能,还是通过神经网络进行机器学习(Goodfellow、Bengio 和 Courville,2016 年;Silver 等人,2018 年)。
从历史上看,值得注意的是,“AI”一词的使用如上所示。 1950 年至 1975 年,然后在“人工智能冬天”期间声名狼藉。 1975-1995,并缩小。因此,“机器学习”、“自然语言处理”和“数据科学”等领域往往没有被贴上“人工智能”的标签。自约。 2010年,其用途再次扩大,有时几乎所有计算机科学甚至高科技都被归为“人工智能”。现在,它是一个值得骄傲的名字,一个拥有大量资本投资的蓬勃发展的行业(Shoham et al. 2018),并且再次处于炒作的边缘。正如埃里克·布林约尔松 (Erik Brynjolfsson) 指出的那样,它可能使我们能够
几乎消除全球贫困,大规模减少疾病,并为地球上几乎每个人提供更好的教育。 (引自 Anderson、Rainie 和 Luchsinger 2018)
虽然人工智能可以完全是软件,但机器人是移动的物理机器。机器人通常会通过“传感器”受到物理影响,并且通常通过“执行器”(例如夹具或转轮)向世界施加物理力。因此,自动驾驶汽车或飞机都是机器人,只有极少数机器人是“人形”(人形),就像电影中那样。有些机器人使用人工智能,有些则不使用:典型的工业机器人盲目地遵循完全定义的脚本,只有最少的感官输入,没有学习或推理(每年安装大约 500,000 个这样的新工业机器人(IFR 2019 [OIR]))。可以公平地说,虽然机器人系统引起了公众更多的关注,但人工智能系统更有可能对人类产生更大的影响。此外,与更灵活和自主的系统相比,用于一小部分任务的人工智能或机器人系统不太可能引起新问题。
因此,机器人和人工智能可以被视为涵盖两组重叠的系统:仅是人工智能的系统、仅是机器人的系统以及两者兼而有之的系统。我们对这三者都感兴趣;因此,本文的范围不仅是两个集合的交集,而且是并集。
1.3 政策说明
政策只是本文关注的问题之一。关于人工智能伦理存在着重要的公众讨论,政客们经常宣称这个问题需要新的政策,这说起来容易做起来难:实际的技术政策很难规划和执行。它可以采取多种形式,从激励和资金、基础设施、税收或善意声明,到各种参与者的监管和法律。人工智能政策可能会与技术政策或一般政策的其他目标发生冲突。近年来,工业化国家的政府、议会、协会和产业界纷纷出台报告和白皮书,有的还提出了善意的口号(“可信/负责任/人道/以人为本/善良/有益的人工智能”),但这就是所需要的吗?有关调查,请参阅 Jobin、Ienca 和 Vayena (2019) 以及 V. Müller 的 PT-AI 政策文件和机构列表。
对于从事道德和政策工作的人来说,可能倾向于高估新技术的影响和威胁,并低估当前监管的范围(例如,产品责任)。另一方面,企业、军队和一些公共行政部门则倾向于“只是说说而已”并进行一些“道德清洗”,以保持良好的公众形象并继续像以前一样。实际实施具有法律约束力的监管将挑战现有的商业模式和实践。实际政策不仅仅是道德理论的实施,而且受到社会权力结构的影响——而拥有权力的代理人将反对任何限制他们的事物。因此,在经济和政治力量面前,监管仍然存在着无力的重大风险。
尽管制定的实际政策很少,但还是有一些值得注意的开端:最新的欧盟政策文件建议“值得信赖的人工智能”应该合法、道德和技术稳健,然后将其阐明为七个要求:人类监督、技术稳健性、隐私和数据治理、透明度、公平、福祉和问责制 (AI HLEG 2019 [OIR])。现在,欧洲的许多研究都在“负责任的研究和创新”(RRI)的口号下进行,而自核电出现以来,“技术评估”一直是一个标准领域。职业道德也是信息技术的一个标准领域,这包括本文中相关的问题。也许人工智能工程师的“道德准则”,类似于医生的道德准则,是这里的一个选择(Véliz 2019)。 (L. Taylor and Purtova 2019) 阐述了数据科学本身应该做什么。我们还预计,许多政策最终将涵盖人工智能和机器人技术的特定用途或技术,而不是整个领域。 (欧洲科学和新技术伦理小组 2018 年:13ff)给出了人工智能伦理框架的有用总结。关于一般人工智能政策,请参阅 Calo (2018) 以及 Crawford 和 Calo (2016);斯塔尔、蒂默曼斯和米特尔施塔特 (2016);约翰逊和维迪基奥 (2017);以及朱比利尼和萨武列斯库 (2018)。 “科学技术研究”(STS)领域经常讨论技术的政治角度。正如《发明伦理》(Jasanoff 2016)等书籍所示,STS 中的担忧通常与伦理中的担忧非常相似(Jacobs et al. 2019 [OIR])。在本文中,我们将分别讨论每种类型问题的政策,而不是一般的人工智能或机器人技术。
二、主要争论
在本节中,我们概述了人类使用或多或少具有自主性的人工智能和机器人系统的道德问题,这意味着我们要考虑在某些技术的使用中出现的问题,而在其他技术的使用中不会出现这些问题。然而,必须记住,技术总是会导致某些用途变得更容易,从而更频繁,并阻碍其他用途。因此,技术制品的设计与其使用具有伦理相关性(Houkes and Vermaas 2010;Verbeek 2011),因此除了“负责任的使用”之外,我们还需要在这一领域进行“负责任的设计”。对使用的关注并不预设哪种道德方法最适合解决这些问题;它们很可能是美德伦理(Vallor 2017),而不是结果主义或基于价值的伦理(Floridi et al. 2018)。本节对于人工智能系统是否真正具有“智能”或其他心理属性的问题也是中立的:如果人工智能和机器人技术仅仅被视为自动化的当前面貌,那么它同样适用(参见穆勒即将发布的-b)。
2.1 隐私和监控
关于信息技术中的隐私和监视存在一般性讨论(例如,Macnish 2017;Roessler 2017),主要涉及对私人数据和个人可识别数据的访问。隐私有几个众所周知的方面,例如“不受干扰的权利”、信息隐私、隐私作为人格的一个方面、对自己信息的控制以及保密权(Bennett 和 Raab 2006)。隐私研究历来侧重于秘密部门的国家监视,但现在包括其他国家特工、企业甚至个人的监视。在过去的几十年里,技术发生了巨大的变化,而监管反应却很缓慢(尽管有法规 (EU) 2016/679)——结果是某种无政府状态,被最强大的参与者利用,有时是显而易见的,有时隐藏起来。
数字领域已经大大拓宽:所有数据收集和存储现在都是数字化的,我们的生活越来越数字化,大多数数字数据都连接到单一互联网,并且越来越多的传感器技术正在使用来生成有关非数字方面的数据我们的生活。人工智能既增加了智能数据收集的可能性,也增加了数据分析的可能性。这适用于对整个人群的全面监测以及经典的有针对性的监测。此外,许多数据在代理之间进行交易,通常是收费的。
与此同时,在数字世界中,控制谁收集哪些数据以及谁有权访问数据,比纸质和电话的模拟世界要困难得多。许多新的人工智能技术放大了已知的问题。例如,照片和视频中的人脸识别可以进行身份识别,从而对个人进行分析和搜索(Whittaker et al. 2018:15ff)。这继续使用其他技术进行识别,例如“设备指纹”,这在互联网上很常见(有时在“隐私政策”中披露)。结果是“在这片浩瀚的数据海洋中,我们有一幅令人恐惧的完整画面”(Smolan 2016:1:01)。其结果可以说是一场尚未受到公众应有关注的丑闻。
我们留下的数据痕迹是我们的“免费”服务如何付费的——但我们没有被告知数据收集和这种新原材料的价值,并且我们被操纵留下更多这样的数据。对于“五大”公司(亚马逊、谷歌/Alphabet、微软、苹果、Facebook)来说,其业务的主要数据收集部分似乎是基于欺骗、利用人性弱点、进一步拖延、产生成瘾和操纵(哈里斯 2016 [OIR])。在这种“监视经济”中,社交媒体、游戏和大多数互联网的主要焦点是获得、维持和引导注意力,从而提供数据。 “监控是互联网的商业模式”(Schneier 2015)。这种监视和注意力经济有时被称为“监视资本主义”(Zuboff 2019)。它导致许多人试图摆脱这些公司的控制,例如,通过“极简主义”(Newport 2019),有时通过开源运动,但当今的公民似乎已经失去了自主权所需的程度。逃离,同时充分继续他们的生活和工作。如果“所有权”在这里是正确的关系,那么我们就失去了数据的所有权。可以说,我们已经失去了对数据的控制。
这些系统经常会揭露我们自己希望压制或不知道的关于我们的事实:它们对我们的了解比我们对自己的了解还要多。即使只是观察在线行为也可以洞察我们的心理状态(Burr 和 Christianini 2019)和操纵(见下文第 2.2 节)。这导致人们呼吁保护“衍生数据”(Wachter 和 Mittelstadt 2019)。赫拉里在他的畅销书《Homo Deus》的最后一句话中询问了人工智能的长期后果:
当无意识但高度智能的算法比我们更了解我们自己时,社会、政治和日常生活将会发生什么? (2016:462)
除了安全巡逻之外,机器人设备尚未在这一领域发挥主要作用,但一旦它们在工业环境之外变得更加普遍,这种情况将会改变。与“物联网”、所谓的“智能”系统(电话、电视、烤箱、灯、虚拟助理、家庭……)、“智能城市”(Sennett 2018)和“智能治理”一起,它们将成为数据收集机制的一部分,实时提供更详细的不同类型的数据以及更多的信息。
可以在很大程度上隐藏个人或群体身份的隐私保护技术现在已成为数据科学的标准主要内容;它们包括(相对)匿名化、访问控制(加加密)以及使用完全或部分加密的输入数据进行计算的其他模型(Stahl 和 Wright 2018);在“差异隐私”的情况下,这是通过添加校准噪声来加密查询输出来完成的(Dwork et al. 2006;Abowd 2017)。虽然需要更多的努力和成本,但此类技术可以避免许多隐私问题。一些公司还将更好的隐私视为一种竞争优势,可以加以利用并以高价出售。
主要的实际困难之一是在国家层面和拥有索赔权的个人层面上实际执行监管。他们必须确定负责的法律实体,证明该行动,也许证明其意图,找到一个声称自己有能力的法院……并最终让法院真正执行其决定。数字产品中往往缺乏完善的权利法律保护,例如消费者权利、产品责任和其他民事责任或知识产权保护,或者难以执行。这意味着具有“数字”背景的公司习惯于在消费者身上测试其产品,而不必担心承担责任,同时大力捍卫其知识产权。这种“互联网自由主义”有时被认为是假设技术解决方案能够自行解决社会问题(Mozorov 2013)。