摘要:结合目前心灵哲学和认知心理学的研究,我对“感受质”这一人类意识和机器意识的“难问题”进行了刻画。对丹尼特与查尔莫斯围绕“哲学僵尸”思想实验争论的考察,表明对“感受质”的全面否定在目前看来是无法完成的任务。在此基础上,对“感受质”的“私人性”特征的探究则表明,认知者对 “感受质”的觉知与她对自身的觉知不能处于同一个意识活动中。由于“感受质”并不具备“私人性”特征,而这意味着“感受质”有被以公共的方式测知或“再现”的可能。因此,无论是人还是人工智能意识的“难问题”将成为“易问题”。
关键词:意识“难问题”,感受质,私人性
一.导论
设想这样一种存在者,他具有和常人无异的相貌,和我们一样会在被夸奖时微笑,在被指责时垂头丧气,并且能用语言适当地表达自己的“感受”,在与我们的日常交流中对答如流。总之,他是一个在生理方面与我们人类完全相同的“复制者”(“replicate”)。但是,由于缺少心灵或现象意识,他的“内部完全黑暗”。 [1]查尔莫斯将这类存在者称为“哲学僵尸”,他们在微观物理层面与人类完全一样,即使是最为专业的行为心理学家也从无法从通过对外在行为的观察,将他们与正常的人类区分开来。但是,这些“哲学僵尸”由于缺乏现象意识,无法拥有具有“私人性”的主观感受,例如看见红色或感到疼痛时的那种“像是如此这般”(“what it is like to be”)的经验,即“感受质”(‘qualia’)。由于意识具有的不可还原的现象性质,无法通过其因果功能进行被完全解释,也不可以被还原为物理学的、生物学的或是认知神经科学“第三人称的描述”。
哲学家们一度对能否设想这样一种存在者(或者僵尸)存在争论,毕竟一个在物理上和我们一模一样,却唯独缺乏现象意识的存在者,似乎表明意识是一种非物理的属性或实体,进而对(一元)“物理主义”理论造成了威胁。但是,随着人工智能的发展,这种不但是可设想的,甚至正逐渐变为现实。目前的人工智能已经能表现出一些“意识行为”,如伊莱基姆(Eliakim)组织开发的自主蝙蝠机器Robat,具有两个耳朵和一个发射器, 就可以利用回声定位构建场景地图模型; [2]杨(Yang)研制的用于家庭护理的“情感意识机器人”,可以很好地识别与表达情感。 [3]但是,目前的人工智能的行为,基于人类预先编好的算法和海量的数据分析训练, 这意味着它们和“哲学僵尸”一样并不“理解”自己所执行的内容, 更不用说内省能力和私人性的感觉经验。因此,目前的人工智能似乎逐渐成为了设想中“哲学僵尸”的现实版。
与哲学家们对意识的“易问题”与“难问题”区分类似,霍兰(Holland) 将人工意识分为弱人工意识和强人工意识, 对应于人工智能意识的“易问题”与“难问题”,前者意味着“如何使机器具备感知能力、推理能力,识别并表达一定的情感内容”的问题;而后者意味着“如何使机器具备自我意识、现象意识(感受质)。” [4]目前的人工智能研究多停留在对“易问题”的解决上,而多数计算机科学家认为解决“难问题”,尤其是“感受质”问题的解决,是产生“类人意识机器”的必要条件。 [5]
数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。