形式认识论(四)

4.第四个案例研究:知识的局限性

到目前为止,我们只使用了一种正式工具:概率论。我们可以使用其他工具(例如 Dempster-Shafer 理论或排序理论)在上述应用中得到许多类似的结果。但让我们转向新的应用程序和新工具。让我们用模态逻辑来探索知识的极限。

4.1 认知模态逻辑

模态逻辑的语言与普通的经典逻辑相同,但添加了一个额外的句子运算符◻来表示必然性。如果一个句子 phi 不仅为真,而且必然为真,我们就写 ◻phi。

然而,有很多种必要性。有些事情在逻辑上是必要的,比如同义反复。其他的可能在逻辑上不是必要的,但在形而上学上仍然是必要的。 (赫斯珀鲁斯和磷星是相同的,这是一个流行的例子;更有争议的候选者是上帝的存在或有关父母起源的事实,例如,艾达·洛夫莱斯的父亲是拜伦勋爵这一事实。)

但这里我们关心的必然性是认知必然性,即根据我们所知,事物必须为真的必然性。例如,这句话的作者是人类对你来说是认识上必要的。如果你还不知道这一点(也许你没有考虑过这个问题),那么考虑到你确实知道的其他事情,这一定是真的:人类是地球上唯一能够对正式认识论构建连贯调查的生物,并且这就是这样一个调查(我希望如此)。

那么,在认知模态逻辑中,用 K 代替 ◻ 是有意义的,其中 K 表示 已知为真,或者至少是从已知为真得出的。被谁认识?这取决于应用程序。除非另有说明,否则我们假设我们正在谈论您的知识。

认知模态逻辑应该包括哪些公理?好吧,命题逻辑的任何同义反复都应该是一个定理,就像 phi⊃phi 一样。就此而言,具有类似真值表有效的 K 运算符的公式(例如 K ⊃ K )也应该是定理。因此,我们将继续以最粗略的方式使所有这些公式定理成为可能,将它们全部设为公理:

(P) 任何符合经典逻辑规则的真值表有效的句子都是公理。

采用 P 立即使我们的公理列表变得无限。但它们都很容易通过真值表方法识别出来,所以我们不用担心。

超越经典逻辑,所有所谓的“正常”模态逻辑都共享一个对于认知应用来说看起来相当合理的公理:

K(ψ⊃ψ)⊃(Kψ⊃Kψ)

如果你知道 ψ⊃ψ 为真,那么如果你也知道 ψ,那么你也知道 ψ。或者至少,如果 ψ⊃ψ 和 ψ 成立,则 ψ 可以根据您所知道的得出。 (顺便说一句,这里的“K”代表“Kripke”,而不是“知识”。)所有“alethic”模态逻辑共享的另一个共同公理看起来也不错:

K ⊃ Φ

如果你知道 phi,它一定是真的。 (注意:K 和 T 实际上是公理模式,因为这些形式的任何句子都是公理。因此,这些模式中的每一个实际上都添加了无限多个公理,所有公理都具有相同的通用形式。)

对于这些公理,我们将添加两个推理规则。第一个是经典逻辑中常见的,它指出从 ψ⊃ψ 和 ψ,可以推导出 ψ。正式:

ψ⊃ψ,ψ⊢ψ

第二条规则特定于模态逻辑,并指出从 phi 可以推断出 Kphi。正式:

ψ⊢Kψ

NEC 的规则看起来很可疑:它不是让一切真相都为人所知吗?事实上,不:我们的逻辑只承认公理和由 MP 推导出来的事物。因此,只有逻辑真理才会受到 NEC 规则的约束,并且这些真理在认识上是必要的:它们要么是已知的,要么是根据我们所知道的得出的,因为它们在没有任何假设的情况下遵循。 (NEC 代表“必要”,在当前系统中在认知上是必要的。)

三个公理模式 P、K 和 T,连同推导规则 MP 和 NEC,完成了我们的最小认知模态逻辑。它们使我们能够推导出一些基本定理,我们将在下一节中使用其中一个定理:

定理(∧-分布)。 K(ψ∧ψ)⊃(Kψ∧Kψ)

(有关证明,请参阅技术补充)。这个定理粗略地说,如果你知道一个合取词,那么你就知道每个合取词。至少,每个合取都遵循你所知道的(从现在开始我将隐式保留这个限定词),这看起来相当明智。

我们能证明一些更有趣的事情吗?通过一些调整,我们可以得出一些关于我们知识的局限性的相当惊人的结果。

4.2 可知性悖论(又名丘奇-菲奇悖论)

一切真实的事情都能被知道吗?或者是否存在一些永远无法得知的真相,即使在原则上也是如此?费奇 (Fitch, 1963) 和阿隆佐·丘奇 (Alonzo Church, Salerno 2009) 提出的一个著名论点表明事实并非如此:有些真理是不可知的。因为如果所有真理在原则上都是可知的,我们就可以推论所有真理实际上已经是已知的,这是荒谬的。

这个论证需要对我们的认知逻辑进行轻微的扩展,以适应可知性的概念。对我们来说,K 意味着已知(或由已知蕴含),而可知性则增加了一个额外的模态层:可能知道什么。因此,我们的语言中需要一个句子运算符 ◊ 来表示形而上学的可能性。因此 ◊ψ 的意思是“在形而上学上 ψ 可能为真”。事实上,◊phi 只是 Ø◻Øphi 的缩写,因为不一定是假的也可以是真的。因此,我们实际上可以添加 ◻ 来代替,并假设它像 K 运算符一样遵守 NEC 规则。 (与 K 运算符的 NEC 规则一样,我们总是可以从 phi 推导出 ◻phi,因为只有当 phi 是逻辑真值时,我们才能首先推导出 phi。)根据定义,◊ 就是 Ø◻Ø 。

添加到我们的语言中后,我们可以导出以下引理(有关推导,请参阅技术补充):

引理(未知者是不可知的)。 Ø◊K( ∧ ØK )

这个引理基本上说你无法知道这样的事实,“ 是真的,但我不知道它是真的”,这似乎很合理。如果你知道这样一个连接,那么第二个连接就一定是真的,这与你知道第一个连接相冲突。 (这就是 ∧ 分布被证明有用的地方。)

然而,这个看似合理的引理几乎立即导致了一些真理的不可知性。假设对于归约来说,一切真实的事物都可以被知道,至少在原则上是这样。也就是说,假设我们将以下作为公理:

知识无极限

ψ⊃◊Kψ

然后,我们只需几行代码就可以推导出所有真实的东西实际上都是已知的,即 ψ⊃Kψ。

1. (ψ∧ФФ)⊃◊K(Ф∧ФФ) 知识无极限

2. ψ(ψ∧ψKψ) 1,未知数是不可知的,P

3. Φ⊃KΦ2, P

如果K代表上帝所知道的,那就没问题了。但如果 K 代表你或我所知道的,那就显得很荒谬了!不仅有我们不知道的真理,而且大多数真理甚至不是我们所知道的。知识无极限似乎是这里的罪魁祸首,所以似乎有些事情我们甚至在原则上也无法知道。但请参阅有关惠誉可知性悖论的条目以获取更多讨论。

4.3 自我认识

即使我们无法知道某些事情,我们至少可以无限地获取我们自己的知识吗?我们至少总是能够辨别我们是否知道某事吗?形而上必然性逻辑中的一个流行公理是所谓的 S4 公理:◻phi⊃◻◻phi。这就是说,凡是必要的都必须是必要的。在认知逻辑中,相应的公式为:

Kφ⊃KKφ

这粗略地说,每当我们知道某件事时,我们就知道我们知道它。 Hintikka (1962) 著名地主张将 KK 作为认知逻辑的公理。但威廉姆森(Williamson,2000)提出的一个有影响力的论点表明事实并非如此。

这个论点取决于知识不能靠运气获得的观点。具体来说,要知道某件事,就必须是你不可能轻易出错。否则,尽管你可能是对的,但这只是运气。例如,你可能正确地猜到我桌子上的罐子里正好有 967 个软心豆粒糖,但即使你是对的,你只是运气好。你不知道有 967 个软心豆粒糖,因为很可能有 968 个软心豆粒糖,而你却没有注意到其中的差异。

为了形式化这个“不走运”的想法,让命题 ψ1、ψ2 等表示软心豆粒糖的数量至少为 1、至少 2 等。我们假设您正在目视jar,没有仔细数过。因为您对大量软心豆粒糖的估计能力不完美,所以您无法知道罐子里至少有 967 个软心豆粒糖。如果您认为至少有 967 个软糖,那么您很容易错误地认为至少有 968 个,在这种情况下您就错了。因此,我们可以将这种情况下的“不容易犯错”的想法形式化如下:

安全

当 i 很大时(比如说至少 100),K phi i ⊃ phi i + 1 。

这个想法是,知识需要有一定的误差余量,在我们的例子中,误差余量至少是一个软心豆粒糖。大概不止一颗软糖,但至少是一颗。在真实数字的一粒糖豆之内,你无法辨别真假。 (参见Nozick(1981)关于知识“不走运”要求的不同概念,Roush(2005;2009)用概率术语形式化了这一概念。)

不过,在向您解释了所有这些之后,您现在知道了另一件事:安全论点是正确的。所以我们还有:

安全知识

当 i 较大时,K(Kphii⊃phii+1)。

将安全知识与 KK 结合起来会产生荒谬的结果:

1. Kφ100 假设

2. KKφ100 1,KK

3. K(Kφ100⊃φ101) 安全知识

4. KKφ100⊃Kφ101 3,K

5. Kφ101 2,4,MP

对 phi101, phi102, …, phin 重复步骤 (2)–(5)

Kψn m−1,MP。

米′。Φn·m,T

假设第 (1) 行中,您知道罐子里至少有 100 个软糖(您可以清楚地看到),我们可以证明罐子里的软糖比银河系中的恒星还要多。将 n 设置得足够高,软心豆粒糖的数量甚至超过了宇宙中的粒子数量! (请注意,我们在推导过程中的任何地方都不依赖 NEC,因此可以使用第 (1) 行和安全知识等非逻辑假设。)

如果我们和威廉姆森一起基于这些理由拒绝 KK,那么哲学上的回报是什么?依赖 KK 的怀疑论据可能会被消除。例如,怀疑论者可能会争辩说,要了解某件事,你必须能够排除任何竞争性的选择。例如,要知道外部世界是真实的,你必须能够排除你被笛卡尔恶魔欺骗的可能性(Stroud 1984)。但你也必须能够排除你不知道外部世界是真实的可能性,因为这显然是你知道外部世界是真实的另一种选择。也就是说,你必须 K‐‐KΦ,因此 KKΦ (Greco 2014)。因此,这一怀疑论的驱动前提是 KK 论点,我们已经有理由拒绝这一论点。

当然,其他怀疑论并不依赖 KK。例如,一种不同的怀疑策略始于这样一个前提:笛卡尔恶魔的受害者与现实世界中的人拥有完全相同的证据,因为他们的体验状态是无法区分的。但如果我们的证据在两种情况下是相同的,我们就没有理由相信我们处于一种情况而不是另一种情况。 Williamson (2000: ch. 8) 采用了一个类似于他对 KK 的还原的论证,反对的前提是现实世界和恶魔世界中的证据是相同的。要点是,我们并不总是知道在给定场景中我们有什么证据,就像我们并不总是知道我们所知道的一样。事实上,威廉姆森认为,我们自己的思想的任何有趣的特征都受到类似的论证,包括在我们看来 ψ: Aψ⊃KAψ 面临着与 Kψ⊃KKψ 类似的还原。有关进一步的分析和批评,请参阅 Hawthorne (2005)、Mahtani (2008)、Ramachandran (2009)、Cresto (2012) 和 Greco (2014)。

5.第五个案例研究:社会认识论

当我们研究整个社区而不仅仅是孤立的个体时,有趣的事情就会发生。在这里,我们将研究研究人员之间的信息共享,并发现两个有趣的结果。首先,自由共享信息实际上会损害社区发现真相的能力。其次,社区成员之间的不信任可能导致某种两极分化。

我们还将在此过程中引入一种新工具:计算机模拟。可以从 GitHub 下载重现本节结果的 Python 代码。

5.1 佐尔曼效应

想象一下对于某种疾病有两种治疗方法。一种治疗方法很古老,但其功效众所周知:在任何特定情况下治愈该病症的几率为 0.5。另一种治疗方法是新的,可能稍好或稍差:成功机会为 0.501,否则为 0.499。研究人员还不确定它是什么。

目前,一些医生对新疗法持谨慎态度,另一些医生则持乐观态度。因此,有些人在病人身上尝试,而另一些人则坚持老方法。碰巧乐观主义者是对的:新疗法更优越:成功的机会是 0.501。

那么,新疗法的优越性最终会成为社区内的共识吗?随着有关其性能的数据被收集和共享,随着时间的推移,新疗法是否会稍微好一些,难道不应该变得清晰吗?

尝试新疗法的人可能会遭遇一连串的厄运。初步研究可能会得到一系列不太理想的结果,这并不能准确反映新疗法的优越性。毕竟,它只比传统治疗好一点点。所以它可能不会立即展现出它的勇气。如果没有,乐观主义者可能会在它有机会证明自己之前放弃它。

减轻这种危险的一种方法是限制医学界的信息流动。跟随 Zollman (2007) 的脚步,让我们通过模拟来证明这一点。

我们将创建一个“医生”网络,每个人最初都相信新疗法更优越。可信度高于 0.5 的人将尝试新的治疗方法,其他人将坚持旧的治疗方法。通过一条线连接的医生互相分享他们的结果,然后每个人都使用贝叶斯定理(第 1.2.2 节)更新他们看到的任何结果。

我们将考虑不同规模的网络,从 3 到 10 名医生。我们将尝试三种不同的网络“形状”,要么是完整的网络,要么是轮子,要么是循环:

显示了三个网络,每个网络有六个节点。第一个标记为“完整”,所有六个节点排列成六边形,每个节点到其他节点都有一条线。第二个标记为“轮子”,有五个节点排列成五边形,第六个节点位于中心;五边形边界周围有线,还有从中心节点到每个外部节点的线。第三个标记为“循环”,所有六个节点排列成六边形,六边形边界周围有线,没有内部线。

三种网络配置,此处各有 6 名医生进行说明

我们的推测是,该循环将被证明是最可靠的。不幸地得到一连串误导性结果的医生所造成的损害是最小的。分享他们的结果可能会阻止他们的两个邻居了解真相。但网络中的其他人可能会继续调查,并最终了解新疗法优越性的真相。然而,轮子应该更容易受到意外错误信息的影响,而整个网络最容易受到影响。

以下是详细信息。最初,每个医生都会被分配一个随机的信任,认为新的治疗方法更好,从 [0, 1] 区间中统一选择。那些置信度高于 0.5 的人将在 1,000 名患者身上尝试新的治疗方法。成功次数将通过对虚拟硬币进行 1,000 次“翻转”而随机确定,正面概率为 0.501(成功处理)。

然后,每位医生与邻居分享他们的结果,并根据贝叶斯定理更新他们可以获得的所有数据。然后我们再进行一轮实验、分享和更新,然后再进行一轮,以此类推,直到社区达成共识。

可以通过两种方式达成共识。要么每个人都通过获得高可信度(我们会说高于 0.99)来了解真相,即新疗法更优越。或者,每个人在新治疗中都可能达到 0.5 或更低的可信度。然后就没有人进一步实验它了,所以它不可能卷土重来。

以下是当我们运行每个模拟 10,000 次时会发生什么。网络的形状和医生的数量都会影响社区发现真相的频率。第一个因素是佐尔曼效应:网络连接越少,他们发现真相的可能性就越大。

该图显示 y 轴上的“真正共识的概率”与 x 轴上的“代理数量”。共有三条曲线,分别标记为“循环”、“轮子”和“完整”。随着代理数量从 3 增加到 10,“完整”曲线从低于 0.65 的概率变为概率 0.9。随着代理数量增加,“轮”曲线从 0.8 的概率变为概率 0.95从 5 到 10。随着代理数量从 4 增加到 10,“周期”曲线从概率略高于 0.75 变为概率略高于 0.95。

发现真相的概率取决于网络配置和医生数量。

但请注意,更大的社区也更有可能找到真相。为什么?因为更大、连接更少的网络可以更好地防止误导性结果。一些医生必然会偶尔获得不能反映新疗法真实特征的数据。当这种情况发生时,他们的误导性结果可能会以错误信息污染社区,从而阻止其他人尝试新疗法。但网络中的人越多,误导性结果就越有可能被其他人准确、有代表性的结果所淹没。看到误导性结果的人越少,被误导的人就越少。

这是一对动画模拟来说明第一个效果。在这里,我将六位医生的起始信用设置为相同,甚至分布在两个网络中:0.3、.4、.5、.6、.7 和 .8。我还给了他们相同的随机数据序列。只有网络中的连接不同,在这种情况下,一切都不同。只有循环才能了解真相。整个网络很早就变黑了,仅仅 26 次迭代后就完全放弃了这种新颖的处理方法。

显示了两个网络,每个网络都有六个排列成六边形的节点。第一个网络是完整的:每个节点都有一条线将其连接到其他每个节点。第二个网络是一个循环:只有相邻节点通过线连接。节点的颜色从深到浅;传说中颜色越浅,医生的可信度越高。在动画开始时,两个网络中的颜色相同:最暗的节点位于 9 点钟位置,节点围绕六边形顺时针变亮。随着动画的播放,节点变得更暗或变亮,而标记为“Epoch”的计数器从零开始计数到 ​​587。到第 28 纪元,第一个网络中的节点全部变暗,并且它们停止改变颜色视频的其余部分。但第二个网络在整个视频中不断变化。早期,它的大多数节点都变暗并且没有变化,但左下角的节点及其邻居继续波动并变亮。过了一会儿,他们的邻居开始做同样的事情,最终整个第二个网络变亮,动画结束。

两个具有相同先验的网络遇到相同的证据,但只有一个网络发现了真相。

[视频的替代链接]

拯救自行车网络的是以 0.8 信用度开始的医生(左下)。在团队遇到一连串令人沮丧的结果后,他们一开始足够乐观,能够继续前进。然而,在整个网络中,他们很早就收到了如此多的负面证据,以至于他们几乎立即放弃。他们的乐观情绪被许多邻居的负面调查结果所压倒。然而,这个周期让他们接触到的令人沮丧的证据更少,让他们有时间继续尝试新的治疗方法,最终赢得邻居的支持。

正如 Rosenstock、Bruner 和 O’Connor(2017)所说:在分享科学探究结果时,有时少即是多。但这种效应有多重要呢?它出现的频率是多少?在实际实践中它是否足够大以至于值得担心?

(本章完)

相关推荐