学习
实践
活动
工具
TVP
写文章

足够惊艳:神经网络可以逼近任意函数吗?

图:gregoire-bertaud-556149-unsplash

神经网络可以强大到近似逼近任意函数吗?是的。有没有一种通俗易懂、图形化的方式证明呢?

近日,发现 Michael Nielsen 教授已通过可视化方式证明了神经网络逼近任意函数,在这里一起与大家分享下。首先,看一个复杂的一维非线性函数,近似它的一个简单神经网络结构可以是这样的:

图中的 h 含义如何理解? 看下面这两幅图,w1=0.8,即 h=0.8 时; h=1.6 时的图形的区别仅在与高度不同,后者更高,因此 h 的大小在这种结构下是标志幅度大小的参数。此时,再反过头来看上面的图,是不是有点感觉了呢?

此时,我们都只有一个输入维度 x,如果再增加一个维度呢,如下图所示,一个有意思的问题,如果 x 的权重增加到100,y 的权重为 0 ,得到图形会是怎样的呢?

可以理解为忽略 y 轴的作用,如下图所示只有一个变量输入的情形:

真的如此吗,看看下图,它沿 y 轴的映射不正是上图吗。

再看一个更有意思的函数,其中的 h 含义与上面相同。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180506G007YG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券