1. 非参数统计(比较经典的那些)经常要用到泛函分析的视角和工具,有一本书叫Mathematical Foundations of Infinite-Dimensional Statistics, 讲的大概就是这方面的工具。当然想法也很自然,就是把目标密度/函数当成一个向量,然后用希尔伯特空间里的基去逼近,然后去估计基的系数之类的。
2. 神经网络的理论研究里用泛函分析工具的也有不少,主要是对目标函数的光滑性做一些限制,然后用泛函分析的手段去控制神经网络的逼近误差,可以得到一些很有意思的结论(比如要达到同样的误差,宽且浅的网络需要的参数数量远多于深且窄的网络,这也解释了为什么是“深度学习”不是“宽度学习”)
3. 经验过程理论,把估计量视为某个无穷维空间里的点,然后用这个视角来刻画收敛
4. 有一个东西叫RKHS (再生核希尔伯特空间),想法大概是用kernel trick把数据从低维投影到高维,然后对kernel的分析要用到泛函分析的工具,不过我不怎么熟
5. 还有一门学科叫Functional Data Analysis,研究的对象就是怎么去估计一个一般的函数。这方面的领头大佬是UCD的Hans Muller
6. MCMC的收敛速度分析也会用到泛函分析的内容,比如说马尔科夫链的谱分解和其收敛速度有关,我们想要估计一个马尔科夫链的spectral gap,而怎样控制一个定义在一般空间上的马尔科夫链的spectral gap,就需要用到泛函分析的工具
7. 贝叶斯非参数统计里也有泛函分析的应用,比如定义在无穷维空间上的测度。
数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。