此外,其中一些模型的实际预测能力极差。安德烈亚斯·冯·韦斯特法伦批评道:“Pro Republica[...]的一项精心研究证明,至少有一种常用的算法根据肤色进行区分。该研究还表明,风险计算的准确性还有待改进:在未来两年内,只有20%的人被预测到暴力行为实际上犯下了暴力犯罪。亲共和党人讽刺地认为,即使包括所有犯罪和行政犯罪,预测也只比掷硬币准确一点。”(von Westphalen,2016,63f。)11
这种算法的决定性问题或模型是,它们往往是自我参照的。例如,在预防性打击犯罪的斗争中。数据库显示,在黑人“问题区”中发现了大量犯罪,特别是所谓的“毒品犯罪”。因此,该算法预测这些社区的犯罪概率很高。因此,警方以适当的存在做出反应——瞧瞧——发现了许多犯罪,因此算法是“成功的”。因此,该算法创造了一种总是自我确认的对世界的解释。很明显,这里有积极的反馈,这将导致更多的警察存在。通过这种方式,那些受影响的人仅仅因为他们的存在而受到惩罚,他们的贫困被定为刑事犯罪:“在这个系统中,穷人和非白人因为他们是谁和生活在他们生活的地方而受到更多的惩罚。[...]结果是,我们将贫困定为刑事犯罪,一直相信我们的工具不仅是科学的,而且是公平的。(O'Neil 2016,97,91)
因此,种族主义结构和社会条件被大数据和算法复制和巩固,尽管这些算法的主张实际上应该是“客观的”甚至“公平的”,正如司法系统特别寻求的那样;例如,算法根本无法在种族上“判断”。然而,这里忘记的是,发展这些的人可能是相当种族主义的;即使他们不是明确的,种族主义和社会压迫的现实也是通过它们进行数学建模的,并经过某些假设,它被复制。(O'Neil 2016,除其他外24-27)例如,风险评估算法计算犯罪者复发的概率,例如通过评估问卷。然而,这些问卷的结构是,在“问题领域”长大的人必然会得到更高的风险计算。种族主义结果不一定来自该方法;但是——这是至关重要的——无论什么假设和问卷,其目的是用这些方法模拟种族主义现实,目的是提高效率和更具成本效益的起诉。
因此,我认为大数据及其应用在这一点上可能只是次要的;因为在黑人“问题区”、“禁毒战争”、对穷人的大规模监禁(参见Wacquant 2013、Meyer 2017)等,在大数据时代之前就已经存在了。O'Neil的重点不是对种族主义和犯罪的社会原因的明确分析;她抱怨大数据及其应用或其中一些,即“数学毁灭武器”会危及民主;但她没有问一个问题,即民主本身是否还不是一个规则系统,以及应用算法在多大程度上只是受危机影响的资本主义如何处理其罪犯、穷人和堕落者的一种技术形式。
这种情况与数据收集赋予人们的社会后果的极其保守性相似。因为通过收集所有数据,人们决心要过去:“大数据进程编纂了过去。他们没有发明未来。做到这一点需要道德想象力,这是只有人类才能提供的东西。(O'Neil 2016,204)这与“数学模型本质上是基于过去,并假设模式会重复”这一事实有关。(O'Neil 2016,38)
数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。