人工智能(十)
哲学家对支持这一观点的论证最感兴趣。乔伊的是什么?好吧,乔伊的论文之所以受到如此多的关注,很大程度上是因为,就像雷蒙德·库兹韦尔(Raymond Kurzweil,2000)一样,乔伊在很大程度上依赖于大学炸弹客(Theodore Kaczynski)提出的论点。我们的想法是,假设我们成功构建智能机器,我们将让它们为我们完成大部分(如果不是全部)工作。如果我们进一步允许机器为我们做出决策——即使我们保留对机器的监督——我们最终将依赖它们,以至于我们必须简单地接受它们的决定。但即使我们不允许机器做出决策,这些机器的控制权也可能由一小群精英掌握,他们认为其他人类是不必要的——因为机器可以做任何需要的工作(Joy 2000) 。
这里不是评估这一论点的地方。 (话虽如此,大学炸弹客及其支持者推行的模式显然是完全无效的。[44])事实上,许多读者无疑会觉得这样的地方不存在或不会存在,因为这里的推理是业余的。那么,专业哲学家对这个问题的推理又如何呢?
博斯特罗姆最近为可能的未来描绘了一幅极其黑暗的图景。他指出“第一个超级智能”可能具有以下能力
塑造地球起源生命的未来,很容易有非拟人化的最终目标,并且可能有追求开放式资源获取的重要理由。如果我们现在反思人类是由有用的资源(例如位置便利的原子)组成的,并且我们依赖更多的本地资源,我们可以看到,结果很容易是人类迅速灭绝。 (Bostrom 2014 年,第 416 页)
显然,此类争论中最脆弱的前提是“第一个超级智能”确实会到来。在这里,古德-查默斯的论证也许提供了一个基础。
Searle(2014)认为博斯特罗姆的书是误导性的,并且是根本性错误的,我们不必担心。他的理由非常简单:机器没有意识;机器没有意识。博斯特罗姆对恶意机器入侵我们的前景感到震惊;根据定义,恶意机器是有意识的机器;因此,博斯特罗姆的论点并不成立。塞尔写道:
如果计算机可以驾驶飞机、驾驶汽车并在国际象棋中获胜,谁会在乎它是否完全无意识呢?但如果我们担心恶意动机的超级智能会毁灭我们,那么恶意动机应该是真实的就很重要了。没有意识,它就不可能是真实的。
在我们看来,这里最引人注目的事情是,塞尔似乎没有意识到一个残酷的事实,即大多数人工智能工程师完全满足于在我们上面提出和解释的 AIMA 人工智能观点的基础上构建机器:该观点根据机器简单地将感知映射到行动。按照这种观点,机器是否真的有欲望并不重要;重要的是机器是否真的有欲望。重要的是它是否根据人工智能科学家如何设计与欲望的形式相关性而适当地发挥作用。一台具有压倒性破坏力、无意识地“决定”杀人的自主机器,不会因为机器缺乏真正的、人类水平的主观欲望而变得令人讨厌。如果人工智能可以玩国际象棋游戏和《危险边缘》游戏,那么它当然也可以玩战争游戏。正如人类失败者指出国际象棋中获胜的机器没有意识一样,对于被机器杀死的人类来说,指出这些机器没有意识也没有什么好处。 (有趣的是,乔伊这篇论文的起源是与约翰·塞尔和雷蒙德·库兹韦尔的一次非正式谈话。据乔伊说,塞尔认为没有什么可担心的,因为他过去(现在也是)非常有信心明天的机器人没有意识。[45])
关于明天,我们可以放心地说一些事情。当然,除非发生一些灾难性事件(核战争或生物战争、全球经济萧条、陨石撞击地球等),我们现在知道人工智能将成功生产人造动物。由于即使是一些自然动物(例如骡子)也可以很容易地被训练来为人类工作,因此顺理成章的是,根据我们的目的从头开始设计的人造动物将被部署为我们工作。事实上,目前由人类完成的许多工作肯定会由经过适当编程的人造动物来完成。随便举一个例子,很难相信未来商业司机不会是人工的。 (事实上,戴姆勒已经在投放广告,宣传其汽车“自动”驾驶的能力,允许这些车辆的乘客忽略道路并阅读。)其他例子包括:清洁工、邮递员、文员、军事侦察兵、外科医生和飞行员。 (至于清洁工,此时此刻,可能有相当多的读者拥有 iRobot 的机器人在家中清洁地毯。)很难看出此类工作与人们通常认为的属性是如何密不可分的。人格的核心——人工智能最难复制的属性。[46]
安迪·克拉克(Andy Clark,2003)还有另一个预测:借助假肢、感觉器官和植入物,人类将至少在一定程度上逐渐成为机器人。这一趋势的主要驱动力是,虽然独立的人工智能通常是可取的,但当所需的智能水平很高时,它们就很难设计。但让人类“驾驶”不太智能的机器要容易得多,而且由于具体原因仍然非常有吸引力。另一个相关的预测是人工智能将扮演人类认知假体的角色(Ford et al. 1997;Hoffman et al. 2001)。假肢观点将人工智能视为“伟大的均衡器”,它将减少社会分层,也许类似于印度教-阿拉伯数字系统如何使算术为大众所用,以及古腾堡出版社如何促进识字变得更加普遍。
即使这个论点在形式上是无效的,它也给我们留下了一个问题——关于人工智能和未来的基石问题:人工智能是否会产生复制并超越人类认知的人造生物(正如库兹韦尔和乔伊所认为的那样)?或者这只是一个有趣的假设?
这不仅是科学家和工程师的问题,也是科学家和工程师的问题。这也是哲学家的问题。之所以如此,有两个原因。第一,旨在验证肯定答案的研究和开发必须包括哲学——其原因植根于本条目的前面部分。 (例如,哲学是寻求稳健的形式主义,用机器术语来模拟人类命题态度的地方。)第二,哲学家很可能能够提供现在明确回答基石问题的论据。如果上面提到的反对“强”人工智能的三个论点(塞尔的 CRA;哥德尔式攻击;德雷福斯论点)中的任何一个版本都是合理的,那么人工智能当然无法制造出具有人类智力的机器。毫无疑问,未来不仅拥有更加智能的机器,而且对于这种进步是否能够达到笛卡尔宣称无法达到的人类水平的问题,还有新的争论。