在2010年代,一类被称为深度神经网络(deep neural networks)的计算模型变得颇为流行(Krizhevsky, Sutskever, and Hinton 2012; LeCun, Bengio, and Hinton 2015)。这些模型是有着多层(时常是数百层)隐藏节点的神经网络。深度神经网络通过一种或另一种学习算法(通常是反向传播算法)在大数据集上进行训练,其已在包括对象识别与战略游戏博弈的数个AI领域中取得了巨大成功。深度神经网络现已广泛应用在了商业中,并且也是学术界与工业界正在进行广泛研究的焦点。研究者们也已经开始用它们来建模心灵(比如,Marblestone, Wayne, and Kording 2016; Kriegeskorte 2015)。
关于神经网络,更详尽的综述见Haykin (2008)。对应用者比较友好的,特别强调其心理学应用的导论可见Marcus (2001)。而以哲学为导向的关于深度神经网络的导论见Buckner (2019)。
4.1 Relation between neural networks and classical computation
仅凭“感觉”的话,神经网络同经典(比如说图灵式)模型有着巨大不同。然而,经典计算与神经网络计算并不互斥:
• 人们可以在一个经典模型中实现一个神经网络。的确,任何物理上构建的神经网络都是在数字计算机中实现的。
• 人们可以在一个神经网络中实现一个经典模型。当代数字计算机是在逻辑门网络中实现的图灵式计算。或者说,人们也可以使用带有能接受连续激活值节点的模拟的循环神经网络来实现图灵式计算(Graves, Wayne, and Danihelka 2014, Other Internet Resources; Siegelmann and Sontag 1991; Siegelmann and Sontag 1995)。
虽然一些研究者认为在经典计算与神经网络计算间存在着根本对立,但看上去更准确的方式应该是将这两种传统定位为,它们在某些情况下有着重叠,但并不是所有情况下都是如此(cf. Boden 1991; Piccinini 2008b)。在这种关系的意义上,还值得提起的一点是,经典计算主义与联结主义式计算主义的共同起源都是麦克洛克与皮茨的工作。
哲学家们常称经典计算涉及到是“受规则支配的符号操作(rule-governed symbol manipulation)”,而神经网络计算则是非符号性的。这种直观来源于神经网络中的“信息”是全局性地分布在加权与激活上的,而不是集中于局部的符号上的。然而,“符号”的这个概念自身就要求一种澄清,所以学者们在将计算描述为符号性的VS非符号性时究竟意味着什么时常并不清楚。正如第一节中提到的那样,图灵形式系统对“符号”设置的限制条件非常少。关于初始符号,图灵只是简单假设了它们是有穷多的,并且可以被刻在读/写的存储位置上。神经网络同样可以在满足这两条要求的情况下操作符号:就像之前才提到的那样,人们可以在一个神经网络中实现一个图灵式模型。
数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。