因此,你可以将随机性,定义为完全无法被压缩的东西。要向别人描述一个完全随机的物体或数字,唯一的办法,就是将之呈现出来,然后说:"就是它了"。因为它并无结构或模型,所以并没有更为简洁的描述。另一个极端,则是具有颇规律、标准的模型的物或数字。例如,你可以说它是 01 的一百万次重复。这是一个非常大的物体,但描述却非常简短。
我的想法是,用程序大小之复杂性来对随机性加以定义。当你开始对计算机程序之大小、规模予以关注时——当你开始思考程序大小或信息复杂性的概念,而非运行时的复杂性的概念时——有趣的事情就发生了: 在任何地方,你都会发现不完备性。为什么呢?因为在我的理论中,你所提出的首个问题,就会给你带来麻烦。你用对某事物加以计算的最小计算机程序的大小/规模来对其复杂性加以衡量。但你怎么能确定,你所拥有的就是最小的计算机程序呢?答案是不能。令人惊讶的是,这项任务逃脱了数学推理之权力。
目的是什么呢?...最初,在1936年,图灵的通用离散机器只是一个思想实验,它以消极的方式解决了伟大的哥廷根数学家大卫-希尔伯特(DavidHilbert)提出的“判定
(Entscheidungsproblem)"问题。希尔伯特在1928年提出的“纲领”要求数学是完整、一致和可解的,这就需要证明定理可以被证明或反证,定理不能通过相互矛盾的方法推导出来,最后,定理可以通过一组确定和有限的步骤得到解决。众所周知,哥德尔推翻了程序的第一点;在他得出的不完备性定理的基础上,他再次肯定了人类智能的优越性。图灵的机器思想实验推翻了第二点,但却得出了相反的结论。
图灵认为,机器在有限步数内无法判定的定理这一事实从总体上定义了可计算性。“计算"──在1936年之前一直指人类的能力──具有了新的技术含义,自那以后,它就成为了世界历史。人工智能不再以它们不能做什么来衡量,而是掌握了它们能做的一切。这不是科学问题,而是战略问题。有限状态机器比物理或神经生理学体系更具优势这一事实,即它们是可预测的这一事实,使它们有资格参与战争。图灵用敌人取代了自然,用二进制取代了模拟系统,用编码技术取代了物理定律,用截获的信息取代了可观察的现象,用加密密钥取代了自然常数。他的理由是:“离散机械很容易处理密码学的主题,而物理学则不那么容易"[23]。
要说明为什么会这样,可能过于纠缠,所以我只想引用实际结果,这是我最喜欢的不完备性声明之一: 如果你有 n 比特(n bits)公理,那么如果一个程序,其长度超过 n 位,你就永远无法证明它是最小的。也就是说,如果程序大于公理之计算机版本,或者更准确地说,如果程序大于公理的——以及相关演绎规则的——证明-检查(proof-checking)程序之大小,你就会遇到麻烦。
因此,一般来说,你无法对程序大小之复杂性加以计算,因为要对某件事物之程序大小的复杂性加以确定,就必须先知道,对它加以计算的最简洁程序,其大小。如果程序比公理大,你就无法做到这一点。如果公理有 n 个比特,你就永远无法对其复杂度超过 n 个比特的任何事物,对其程序大小复杂度加以确定,这几乎意味着一切。
让我解释一下我为什么这么说。数学家通常使用的公理集,是相当简洁的,否则没人会相信它们。实际上,数学真理之世界浩瀚无边——信息量无穷大,但任何给定的公理集,都只能捕捉到其中有限的一小部分信息。一言以蔽之,这就是为什么哥德尔不完备性是自然的、不可避免的,而非神秘的、复杂的。
何去何从?
数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。