技术哲学(五)

最近,责任差距已成为与AI有关的更加关注的问题。由于机器学习的发展,AI系统可能会以难以理解的方式学习,或者几乎不可能理解人类。最初,文献中有关责任差距的责任概念的主要责任概念是责备或罪魁祸首,但是Santoni de Sio和Mecacci(2021)最近提议将所谓的罪魁祸首差距,道德责任差距,积极的责任差距以及积极的责任差距以及积极的责任差距以及积极的责任差距,以及责任差距。

3.3.3 设计

在过去的几十年中,越来越多的关注不仅是在使用技术期间出现的道德问题,而且还引起了设计阶段。这一发展背后的一个重要考虑因素是,在设计阶段技术及其社会后果中仍然是可延展的,而在使用期间或多或少地给予技术,而负面的社会后果可能更难避免或更难实现积极影响。 。

在计算机伦理学中,已经开发了一种称为价值敏感设计(VSD)的方法,以明确解决设计的伦理性质。 VSD旨在以系统的方式整合工程设计中的道德价值(Friedman&Hendry 2019)。该方法结合了概念,经验和技术调查。还有一系列其他方法,旨在包括设计中的值。工程技术的“设计”方法旨在包括工具价值(例如可维护性,可靠性和成本),但还包括可持续性,包容性设计和情感设计的设计(Holt&Barnes 2010)。包容性设计旨在使整个人群都可以使用设计,包括残障人士和老年人(Erlandson 2008)。情感设计的目的旨在使用户引起积极情绪的设计,从而有助于人类的福祉。 Van de Hoven,Vermaas和Van de Poel 2015很好地概述了各种价值和应用领域的价值敏感设计的最新技术。

如果人们试图将价值整合到设计中,则可能会遇到价值冲突的问题。最安全的汽车是由于其重量而不是最可持续性。在这里,汽车设计中的安全性和可持续性冲突。工程师处理此类冲突并在设计不同要求之间进行权衡的传统方法包括成本效益分析和多个标准分析。但是,这种方法会困扰着方法论问题,例如第2.4节中讨论的方法(Franssen 2005; Hansson 2007)。 Van de Poel(2009)讨论了应对设计价值冲突的各种替代方法,包括设定阈值(满意),关于价值,创新和多样性的推理。

3.3.4 技术风险

技术的风险是技术伦理学的传统伦理问题之一。风险不仅会引发道德问题,还引起其他哲学问题,例如认识论和决策理论问题(Roeser等,2012)。

风险通常定义为不良事件概率的产物和该事件的效果,尽管周围也有其他定义(Hansson 2004b)。通常,希望保持技术风险尽可能小。风险越大,可能发生的事件的可能性或影响越大。因此,降低风险是技术发展和伦理工程规范的重要目标,通常将责任归因于工程师降低风险和设计安全产品的责任。尽管如此,降低风险并不总是可行的或可取的。有时不可行,因为没有绝对安全的产品和技术。但是,即使降低风险是可行的,从道德的角度来看,也可能无法接受。降低风险通常是有代价的。更安全的产品可能更难以使用,更昂贵或更低的可持续性。如此迟早,一个人面临一个问题:什么足够安全?是什么使风险(联合国)可以接受?

处理风险的过程通常分为三个阶段:风险评估,风险评估和风险管理。其中,第二个在道德上是最相关的。但是,风险评估已经涉及价值判断,例如,首先应评估哪些风险(Shrader-Frechette 1991)。一个重要且在道德上相关的问题也是建立风险所需的证据程度。在基于经验数据的基础上建立风险时,可能会犯两种错误。当实际上没有(I型错误)时,可以建立风险,或者可以错误地得出结论,实际上存在风险时没有风险(II型错误)。传统上,科学旨在避免I型错误。几位作者认为,在风险评估的具体情况下,避免II型错误通常更为重要(Cranor 1990; Shrader-Frechette 1991)。这样做的原因是,风险评估不仅旨在建立科学真理,而且具有实际的目的,即提供有关是否需要减少或避免某些技术风险的决定的知识,以便保护用户或公众。

风险评估以多种方式进行(例如,参见Shrader-Frechette 1985)。一种可能的方法是通过将风险与其他风险或某些标准进行比较来判断风险的可接受性。例如,可以将技术风险与自然发生的风险进行比较。但是,这种方法具有犯下自然主义谬误的危险:自然发生的风险可能(有时)是不可避免的,但这并不一定会使它们在道德上可以接受。更一般地,如果A和B不是决定中的替代方案,则通常可以通过将技术A与技术B进行比较来判断技术A风险的可接受性(有关风险的推理和其他谬论,请参见Hansson 2004a, )。

风险评估的第二种方法是风险成本福利分析,该分析基于权衡风险与活动的收益。如果进行(风险)成本福利分析,则可以应用不同的决策标准(Kneese,Ben-David和Schulze 1983)。根据Hansson(2003:306)的研究,通常应用以下标准:

…当且仅当暴露带来的总收益大于总风险时,风险才是可以接受的,这被视为结果的概率加权分级。

第三种方法是根据遭受这些风险的风险的人同意的同意(知情同意)的同意。这种方法的一个问题是技术风险通常会一次影响大量人。因此,知情同意可能导致“僵局社会”(Hansson 2003:300)。

几位作者根据哲学和道德论点提出了传统风险评估方法的替代方法。 Shrader-Frechette(1991)根据对当前实践的哲学批评,提出了许多风险评估和评估程序的改革。 Roeser(2012)主张情绪在判断风险的可接受性中的作用。汉森提出了以下风险评估的替代原则:

只有当这种暴露是公平的冒险系统的一部分时,就可以接受一个人的风险,这是可以接受的。 (Hansson 2003:305)

汉森的提议在风险评估中引入了许多道德上的考虑,这些考虑在传统上不被解决或仅仅解决。这些是个人是否从风险活动中获利以及风险分配是否公平。

关于可接受风险的问题也可能以风险征收的方式构成。然后,问题是在哪种条件下,某些代理A对其他代理商施加风险是可以接受的。可接受的风险征收标准部分类似于上面讨论的标准。例如,如果代理B给予知情同意,或者如果产生风险的风险活动对代理商有益。但是,其他考虑因素也可以接受,例如,其他考虑因素也可以接受。 A和特工B。父母对子女施加某些风险可能是可以接受的,而政府对儿童施加这种风险是不当的。

如果风险征收导致统治或统治样效果,可能会特别有问题(Maheshwari和Nyholm 2022)。从佩蒂特(Pettit(2012))等哲学家提出的共和党意义上可以理解统治。免于统治的自由不仅要求人们有不同的选择可供选择,而且还必须摆脱(潜在的)任意干扰(可用性)。因此,非分数要求他人没有权力来干扰自己的选择(无论是否行使该权力)。如果代理A(风险冒险者)通过对代理B(风险承担者)施加风险可以任意影响Agent B.

一些作者批评了对技术伦理风险的关注。一系列批评认为,我们经常缺乏知识来可靠地评估新技术的风险。我们经常不知道某事可能出现问题的可能性,有时我们甚至不知道,或者至少没有完全出了什么问题,可能会出现什么问题以及可能的负面后果可能是什么。为了解决这个问题,一些作者提议想象社会中将新技术引入社会实验,并敦促考虑这种实验在道德上可以接受的条件(Martin&Schinzinger 2022; Van de Poel 2016)。另一项批评指出,对风险的关注导致了被认为的技术影响的减少(Swierstra&Te Molder 2012)。仅考虑与安全性和健康相关的影响,可以将其计算为风险,而“软”影响(例如社会或心理性质)被忽略,从而降低对新技术的道德评估。

(本章完)

相关推荐