数学联邦政治世界观
超小超大

【高斯核函数过程】核方法(二)

2. 高斯过程神经网络

高斯过程的神经网络与线性回归的关系并非贝叶斯神经网络与线性回归的关系那样,因为高斯过程是非参模型,所以我们并不在意输出相对参数是否是线性关系,但是同样地,由于神经网络中有较多非线性映射的激活函数,这与基函数是类似的,非常耐人寻味,关于神经网络与高斯过程的联系,就可以从这些激活函数上做文章。目前已有很多相关研究。虽然通常神经网络的非线性单元只选取一个激活函数,但由于我们并不确定哪个激活函数是最优的,这时候就会借助高斯过程,可以看做是对神经网络结构不确定性的一种度量。在贝叶斯神经网络输入维度M → ∞ 的情况下,神经⽹络产⽣函数的分布将会趋于⾼斯过程。使用广义谱核 (generalized spectral kernels),可以证明对若干个激活函数的加权就是一个高斯过程,即

f(x)=λᵀ · ф(x)=∑ λᵐфᵐ(x) (29)

对于一个神经网络的第l 个隐藏层的一个隐藏单元 i ,其中 ωˡᵢ 是第 l 层 i 的权重, hˡ⁻¹ 是前一层的输出向量集合,作为当前层的输入向量,假设每个节点有 m 个激活函数 ф(·) ,对应系数为 λ ,那么隐藏单元 i 的输出为

hᵢ⁽ˡ⁾=∑ λᵢ⁽ˡ,ᵐ⁾фₘ(ωˡᵢhˡ⁻¹) (30)

我们可以使用参数化的方法来解决这种模型,有两类参数,分别是激活函数的系数λ 和网络参数 ω 。假设神经网络训练集 D ,对于输入向量 x 和目标向量 y 而言,其边缘概率分布为

p(y|x,D)=∫ ∫p(y|x,ω,λ)p(ω|D)p(λ|D)dωdλ

(31)

对于单一网络单元i 的输出,公式 (30) 可以写作

hᵢ⁽ˡ⁾=∫ ∫ λᵢ⁽ˡ,ᵐ⁾фₘ(ωˡᵢhˡ⁻¹)p(ωˡᵢ|D)p(λᵢ⁽ˡ,ᵐ⁾|D)dωdλ (32)

其中p(ωˡᵢ|D),p(λᵢ⁽ˡ,ᵐ⁾|D) 分别是激活函数系数以及网络参数的后验概率,这样可以按照贝叶斯神经网络中的变分法进行求解。这种高斯过程在深度学习网络中的应用比较常见,比如在 Transformer 中,我们就可以利用这种做法选定若干个激活函数如 ReLU, GELU, sigmoid, tanh 等,然后获得一个最佳的激活函数加权组合以提高网络性能。

数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。

相关小说

信笛 连载中
信笛
雨落皖
我不喜欢被别人掌握命运的感觉,我想变强,我想比别人更强…
7.4万字4周前
短剧—潜执cp 连载中
短剧—潜执cp
蔺询blby
围绕揪出捣蛋鬼的故事讲起,还有一些CP主线,还有一些副角,就这样吧
1.3万字4周前
念离殇 连载中
念离殇
孤影泊客
曾经沧海难为水,除却巫山不是云,取次花丛懒回顾,半缘修道半缘君。离愁别绪,不知心之所向。一念天地,唯有道化自然。
61.0万字4周前
财源滚滚封面铺 连载中
财源滚滚封面铺
该用户已注销
找我约单是我的荣幸,感谢您素材鸣谢均在出单群以及huaban注明
新书4周前
与君初相识(虫族) 连载中
与君初相识(虫族)
酸菜炖排骨
一个发生在虫族的爱情故事。慕哲上将宛如高岭之花,清冷又清醒。雄虫幸言优秀却也冷漠。他们结婚了,婚后发生了什么呢?(含有一定惩戒情节)
1.5万字4周前
残鲤之池鱼思故渊 连载中
残鲤之池鱼思故渊
兔暖暖
池鱼说:“就这个,我不明白为什么你喜欢我?我只是一条鱼,一条很普通的鱼。天赋极差,而且修炼了好久都不能化龙。我这么差,你那么好,怎么会喜欢我......
13.8万字4周前