技术哲学(四)

3.2 技术伦理方法

技术伦理不仅具有多种方法的特点,甚至可能会怀疑是否存在像技术伦理分支这样的分支学科,即致力于解决一系列共同问题的学者群体的意义。研究技术伦理问题的学者具有不同的背景(例如哲学、STS、TA、法律、政治学和 STEM 学科),他们并不总是认为自己(主要)是技术伦理学家。为了让读者对该领域有一个概述,我们将讨论技术伦理学中可能有区别的三种基本方法或趋势。

3.2.1 文化和政治方法

文化和政治方法都建立在二十世纪上半叶的传统哲学和技术伦理之上。文化方法将技术视为一种影响我们对世界的看法的文化现象,而政治方法则将技术视为一种政治现象,即由人与人之间的制度权力关系统治并体现的现象。

文化方法本质上通常是现象学的,或者至少将自己与现象学的关系定位为后现象学。这一传统哲学家的例子有 Don Ihde、Albert Borgmann、Peter-Paul Verbeek 和 Evan Selinger(例如,Borgmann 1984;Ihde 1990;Verbeek 2000 [2005],2011)。这些方法通常受到 STS 发展的影响,特别是技术包含的脚本不仅影响人们对世界的感知,还影响人类行为,以及人类和非人类之间不存在根本区别的想法,包括技术制品(Akrich 1992;Latour 1992、1993;Ihde & Selinger 2003)。这两种想法的结合导致一些人声称技术具有(道德)能动性,这一主张将在下面第 3.3.1 节中讨论。

对技术的政治态度大多可以追溯到马克思,他认为社会生产的物质结构(其中技术显然是一个主要因素)决定了该社会的经济和社会结构。同样,兰登·温纳 (Langdon Winner) 认为,技术可以体现特定形式的权力和权威 (Winner 1980)。他认为,某些技术本质上是规范性的,因为它们需要或与某些社会和政治关系强烈兼容。例如,铁路似乎需要一定的权威管理结构。在其他情况下,技术可能由于其特殊的设计方式而具有政治性。一些技术政治方法受到(美国)实用主义以及较小程度上的话语伦理的启发。例如,许多哲学家呼吁技术发展的民主化以及让普通人参与技术的塑造(Winner 1983;Sclove 1995;Feenberg 1999)。这些想法也在最近的跨学科方法中得到了呼应,例如负责任的研究和创新(RRI),其旨在向更广泛的利益相关者和关注点开放创新过程(Owen 等人,2013)。

尽管政治方法具有明显的伦理影响,但许多最初采用这种方法的哲学家并没有进行明确的伦理反思。同样在政治哲学中,技术似乎也没有被视为一个重要话题。然而,特别是与社交媒体、算法和更普遍的人工智能 (AI) 等数字技术相关的一系列政治主题最近得到了讨论,例如对民主的威胁(来自社交媒体)、大型科技的力量公司,以及人工智能可能带来的新形式的剥削、统治和殖民主义(例如,Coeckelbergh 2022;Susskind 2022;Zuboff 2017;Adams 2021)。一个重要的新兴主题也是正义,它不仅包括分配正义(Rawls 1999),还包括承认正义(Fraser and Honneth 2003)和程序正义。关于正义的问题不仅由数字技术提出,而且由气候变化和能源技术提出,导致气候正义(Caney 2014)和能源正义(Jenkins et al. 2016)等新概念的出现。

3.2.2 工程伦理

工程伦理学始于 20 世纪 80 年代的美国,当时只是一种教育活动。工程伦理关注“属于工程职业的个人或集体的行动和决定”(Baum 1980:1)。根据这种方法,工程学是一种职业,就像医学是一种职业一样。

尽管对于如何准确定义职业尚未达成一致,但经常提到以下特征:

职业依赖于专门的知识和技能,需要长期的学习;

职业群体对职业的实施具有垄断性;

对专业工作是否以称职的方式进行的评估由专业同行完成,并且公认只能由专业同行完成;

职业为社会提供对社会有用或有价值的产品、服务或价值,并以服务社会为理想特征;

专业工作的日常实践受到道德标准的规范,这些标准源自或与职业的社会服务理想相关。

工程伦理中讨论的典型伦理问题是工程师的职业义务,例如工程师的道德准则、工程师与管理者的角色、能力、诚实、举报、对安全的关注和利益冲突等。戴维斯 1998,2005)。多年来,工程伦理的范围不断扩大。虽然最初通常侧重于个别工程师的决策以及举报和忠诚度等问题,但教科书现在也讨论了做出此类决策的更广泛背景,并关注例如所谓的多手问题(van de Poel 和 Royakkers 2011;Peterson 2020)(另见第 3.3.2 节)。最初,焦点往往主要集中在安全问题以及能力和利益冲突等问题上,但现在也讨论了可持续性、社会正义、隐私、全球问题以及技术在社会中的作用等问题(Harris、Pritchard 和 Rabins,2014 年) ;马丁和辛辛格 2022;彼得森 2020;范德普尔和罗亚克斯 2011)。

3.2.3 特定技术的伦理

过去几十年来,对特定技术的道德调查大幅增加。这现在可能是所讨论的三个方面中最大的一个,特别是考虑到过去二十年针对特定技术的道德调查的快速增长。当今最引人注目的新领域之一是数字伦理,它是从计算机伦理发展而来的(例如,Moor 1985;Floridi 2010;Johnson 2009;Weckert 2007;van den Hoven & Weckert 2008),最近的重点是机器人技术、人工智能、机器伦理和算法伦理(Lin、Abney 和 Jenkins 2017;Nucci 和 Santoni de Sio 2016;Mittelstadt 等,2016;Bostrom 和 Yudkowsky,2009;Coeckelbergh,2020b)。生物技术等其他技术也刺激了专门的伦理调查(例如,Sherlock & Morrey 2002;P. Thompson 2007)。建筑和城市规划等更传统的领域也引起了特定的伦理关注(Fox 2000)。纳米技术和所谓的融合技术导致了纳米伦理学的建立(Allhoff 等人,2007 年)。其他例子包括核威慑伦理(Finnis et al. 1988)、核能(Taebi & Roeser 2015)和地球工程(Christopher Preston 2016)。

显然,这种新的伦理反思领域的建立是对社会和技术发展的回应。尽管如此,仍然可以提出这样的问题:建立新的应用伦理学领域是否能最好地满足社会需求。事实上,随着新领域的出现,这个问题经常被讨论。例如,一些作者认为不需要纳米伦理学,因为纳米技术不会引发任何真正新的伦理问题(例如,McGinn 2010)。这里所谓的缺乏新颖性是由以下说法支持的:纳米技术引发的伦理问题是现有伦理问题的变体,有时甚至是现有伦理问题的强化,但并不是真正的新问题,并且声称这些问题可以通过以下方式解决:来自道德哲学的现有理论和概念。有关计算机工程中道德问题的假定新特征的早期类似讨论,请参阅 Tavani 2002。

伦理反思的新领域通常被称为应用伦理学,即道德哲学中发展起来的理论、规范标准、概念和方法的应用。然而,对于这些元素中的每一个,应用通常并不简单,而是需要进一步的规范或修订。之所以会出现这种情况,是因为一般的道德标准、概念和方法往往不够具体,无法直接应用于具体的道德问题。因此,“应用”常常会带来新的见解,这很可能会导致现有规范标准、概念和方法的重新制定或至少完善。在某些情况下,特定领域的伦理问题可能需要新的标准、概念或方法。例如,Beauchamp 和 Childress 提出了许多生物医学伦理的一般伦理原则(Beauchamp & Childress 2001)。这些原则比一般规范标准更具体,但仍然如此普遍和抽象,以至于它们适用于生物医学伦理学的不同问题。在计算机伦理中,与隐私和所有权等相关的现有道德概念已被重新定义和调整,以处理计算机时代的典型问题(Johnson 2003)。一个例子是 Nissenbaum 提出的从上下文完整性角度理解隐私的建议(Nissenbaum 2010)。伦理应用的新领域可能还需要新的方法,例如,识别伦理问题时要考虑到这些领域的相关经验事实,例如技术研究和开发通常是在人际网络中而不是由个人进行的事实(Zwart等,2006)。适用于许多新技术的另一个更普遍的问题是如何处理通常围绕新兴技术的(潜在)社会和道德影响的不确定性。 Brey(2012)提出的预期伦理学建议可以被视为对这一挑战的回应。预期问题也是最近负责任的研究与创新(RRI)跨学科领域的核心关注点之一(例如,Owen 等人,2013)。

尽管对特定技术的不同领域的伦理反思很可能会提出自己的哲学和伦理问题,但可以质疑这是否证明了单独子领域甚至子学科的发展是合理的。一个明显的论点可能是,为了对新技术说出一些在伦理上有意义的内容,人们需要对某一特定技术有专门和详细的了解。此外,这些子领域允许与相关的非哲学专家进行互动,例如法律、心理学、经济、科学技术研究(STS)或技术评估(TA)以及相关的STEM(科学、技术、工程、医学)学科另一方面,也可以说,从专门研究不同技术的伦理学家之间的互动和讨论中,以及与上面讨论的其他两个方面(文化和政治方法以及工程伦理)的富有成效的互动中,可以学到很多东西。特别是,更多的政治技术方法可以通过提请人们关注正义问题、权力差异以及更大的机构和国际背景的作用,来补充关注特定技术(例如人工智能)的道德问题的方法。目前,在许多情况下这种互动似乎不存在,尽管当然也有例外。

3.3 技术伦理中一些反复出现的主题

我们现在转向技术伦理中一些特定主题的描述。我们重点关注一些一般性主题,这些主题说明了技术伦理中的一般性问题以及处理这些问题的方式。

3.3.1 中立与道德代理

技术伦理学中一个重要的普遍主题是技术是否具有价值的问题。一些作者坚持认为技术是价值中立的,即技术只是达到目的的中立手段,因此可以被用于好的或坏的用途(例如,Pitt 2000)。这种观点可能有一定道理,因为技术被认为只是一种裸露的物理结构。然而,大多数技术哲学家都同意,技术发展是一个以目标为导向的过程,技术制品根据定义具有某些功能,因此它们可以用于某些目标,但不能用于其他目标,或者更困难或效率更低。技术制品、功能和目标之间的这种概念联系使得人们很难坚持技术是价值中立的。即使这一点得到承认,技术的价值负载也可以通过多种不同的方式来解释。一些作者认为,技术可以具有道德作用。这一主张表明,技术可以在道德意义上自主、自由地“行动”,并对其行为承担道德责任。

关于技术是否可以具有道德代理的争论始于计算机伦理(Bechtel 1985;Snapper 1985;Dennett 1997;Floridi & Sanders 2004),但此后范围不断扩大。通常,声称技术(可以)具有道德代理的作者经常重新定义代理的概念或其与人类意志和自由的联系(例如,Latour 1993;Floridi & Sanders 2004;Verbeek 2011)。这种策略的一个缺点是它往往会模糊人与技术制品之间道德相关的区别。更一般地说,技术具有道德作用的主张有时似乎已成为技术与道德相关的简写。然而,这忽视了这样一个事实:除了道德代理之外,技术还可以通过其他方式承载价值(例如,参见 Johnson 2006;Radder 2009;Illies & Meijers 2009;Peterson & Spahn 2011;Miller 2020;Klenk 2021)。例如,人们可能会声称技术能够实现(甚至邀请)和限制(甚至抑制)某些人类行为以及某些人类目标的实现,因此在某种程度上具有价值,而不是声称技术制品具有道德代理权。关于这场争论的一个很好的概述可以在 Kroes 和 Verbeek 2014 中找到。

关于道德代理和技术的争论现在在智能人工智能体的设计方面尤为突出。 James Moor (2006) 区分了人工智能主体可能成为或成为道德主体的四种方式:

道德影响力代理是对环境产生道德影响的机器人和计算机系统;这对于所有人工代理来说可能都是如此。

隐性道德主体是被编程为根据某些价值观行事的人工主体。

明确的道德主体是可以代表道德类别并可以(用机器语言)对此进行“推理”的机器。

此外,完全道德的代理人还拥有一些我们通常认为对人类代理至关重要的特征,如意识、自由意志和意向性。

也许永远不可能从技术上设计出完全道德的智能体,即使它成为可能,这样做在道德上是否可取也可能值得怀疑(Bostrom & Yudkowsky 2014;van Wynsberghe and Robbins 2019)。正如 Wallach 和 Allen (2009) 所指出的,主要问题可能不是设计能够自主运行并且能够在与环境的交互中适应自身的人工智能体,而是建立足够的、正确的道德敏感性进入这样的机器。

除了智能人工智能体是否可以具有道德代理权的问题之外,还存在关于它们的道德地位的(更广泛的)问题;例如,他们是否——如果是的话,在什么条件下——有资格成为道德病人,人类对此负有一定的道德义务。传统上,道德地位与意识相关,但许多作者提出了道德地位的最低标准,特别是对于(社交)机器人。例如,Danaher(2020)建议行为主义标准可能就足够了,而 Coeckelbergh(2014)和 Gunkel(2018)则建议采用关系方法。 Mosakas(2021)认为,这种方法并不奠定道德地位,因此人类对社交机器人没有直接的道德义务(尽管它们在其他方面可能仍然具有道德相关性)。其他人认为,社交机器人有时可能会欺骗我们,让我们相信它们具有一定的认知和情感能力(这也可能赋予它们道德地位),但实际上它们却没有(Sharkey and Sharkey 2021)。

3.3.2 责任

责任一直是技术伦理的中心主题。然而,传统的技术哲学和伦理学倾向于用相当笼统的术语来讨论责任,并且对工程师为他们开发的技术承担责任的可能性持相当悲观的态度。例如,埃鲁尔将工程师描述为技术的高级祭司,他们珍惜技术但无法驾驭技术。汉斯·乔纳斯(Hans Jonas,1979 [1984])认为,技术需要一种道德,其中责任是核心要务,因为历史上我们第一次能够毁灭地球和人类。

在工程伦理中,工程师的责任经常与阐明工程师具体责任的道德准则一起讨论。这些道德准则强调工程师的三类责任:(1)以正直、诚实和称职的方式从事职业,(2)对雇主和客户的责任,(3)对公众和社会的责任。对于后者,大多数美国道德准则都认为工程师“应该将公众的安全、健康和福利置于首位”。

正如几位作者所指出的那样(Nissenbaum 1996;Johnson & Powers 2005;Swierstra & Jelsma 2006),可能很难确定工程中的个人责任。原因是,哲学文献中讨论的个人责任的适当归属的条件(如行动自由、知识和因果关系)往往不能被个别工程师满足。例如,由于等级制度或市场限制,工程师可能会感到被迫以某种方式采取行动,而负面后果可能很难或不可能提前预测。由于一项技术从研发到使用的链条很长,而且涉及的人很多,因果关系条件通常也很难满足。尽管如此,Davis(2012)仍然坚持认为,尽管存在这些困难,个别工程师可以而且确实承担责任。

这场辩论中的一个关键问题是责任的概念。戴维斯(Davis,2012)以及拉德(Ladd,1991)主张一种责任概念,较少关注责备,并强调承担责任的前瞻性或美德性。但许多其他人关注的是向后看的责任观念,强调责任、应受责备或责任。例如,Zandvoort(2000)主张工程中的责任概念更像严格责任的法律概念,其中责任的知识条件被严重削弱。 Doorn(2012)比较了工程中责任归属的三种观点——基于功绩的观点、基于权利的观点和结果主义观点——并认为结果主义观点应用了前瞻性的责任概念,对工程的影响力最强。实践。

分配个人责任的困难可能会导致“多手问题”(PMH)。该术语最初由丹尼斯·汤普森(Dennis Thompson,1980)在一篇关于公职人员责任的文章中创造。该术语用于描述集体环境中个人责任归属的问题。 Doorn (2010) 提出了一种基于罗尔斯反思均衡模型的程序方法来处理 PMH;处理 PMH 的其他方法包括设计有助于避免 PMH 的制度或强调组织中的良性行为(van de Poel、Royakers 和 Zwart 2015)。

PMH 指的是在人类主体集体之间分配责任的问题,而技术的发展也使得将任务分配给自学习和智能系统成为可能。这些系统的运作和学习方式可能是人类难以理解、预测和控制的,从而导致所谓的“责任差距”(Matthias 2004)。由于知识和控制通常被视为责任的(基本)先决条件,缺乏知识和控制可能会使人类越来越难以对智能系统的行为和后果负责。

最初,主要讨论了与自动武器系统和自动驾驶汽车有关的责任差距(Sparrow 2007; Danaher 2016)。作为一个可能的解决方案,已提出有意义的人类控制的概念是开发和就业系统的前提,以确保人类可以保留控制,从而对这些系统进行责任(Santoni de Sio和van den Hoven 2018)。 Nyholm(2018)认为,许多涉嫌责任差距的案例可以通过协作人类技术机构(人类担任监督角色),而不是技术接管控制的术语来更好地理解。尽管责任差距可能并非不可能,但更困难的问题可能是将责任归因于所涉及的各个人(这将PMH带回了桌子上)。

(本章完)

相关推荐