前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用手机玩转BP神经网络

用手机玩转BP神经网络

作者头像
统计学家
发布2019-07-30 15:32:42
7690
发布2019-07-30 15:32:42
举报

早前Google Tensorflow开源了一个在线实验的神经网络平台PlayGround,它是一个入门神经网络非常直观的网站,可以将神经网络的训练过程直接可视化。

http://playground.tensorflow.org/

网页版玩法大家可以去项目网址体验,今天重点给大家介绍一款APP,名字就叫神经网络,下载安装就可以在iPhone和iPad上感受神经网络的魅力了。

这款app灵感来源便是Google Tensorflow 的 Deep playground,程序大量代码都借鉴了这个开源项目。这款程序使用的神经网络是简单的反向传导神经网络(Backpropagation Neural Networks),可以直观地感受到神经网络训练过程中的变化,包括连接的强弱、每个结点负责识别的特征和最终输出等图像等。

与网页版一样提供了4种不同形态的数据,分别是圆形、异或、高斯和螺旋。平面内的数据分为蓝色和黄色两类。

首先选择数据,然后整学习速率、激活函数、正则化、正则化率等参数,也可以调节噪声、训练数据和测试数据的比例和Batch size的大小,就可以开始训练神经网络啦!

其中:

学习率

其中α就是学习速率,提高学习率,可以显著增加学习速度,但太大又可能会跳过最低点,从而造成振荡。

激活函数

激活函数的作用是将神经网络的输出非线性化,使神经网络能够处理非线性数据。本程序有三个激活函数,分别是ReLU、Sigmoid和Tanh。还有一个Linear相当于没有激活函数。

  • 红色:ReLU
  • 蓝色:Tanh
  • 绿色:Sigmoid
  • 紫色:Linear

正则化函数

正则化也称权重衰减(Weight decay),目的是降低权值(Weight),防止过拟合。本程序有两个正则化函数,分别是L1和L2,以及一个None选项。L1可以将权值一直衰减到0,因此它能将权值矩阵变稀疏。

L2对大的数衰减大,对小的数衰减小,因此它不是那么容易将权重衰减到0,但是它可以获得一个比较均匀的权值矩阵。

四组数据里面难度最大的就是螺旋型,大家一起挑战一下吧1

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-07-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与统计学 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 学习率
  • 激活函数
  • 正则化函数
  • 正则化也称权重衰减(Weight decay),目的是降低权值(Weight),防止过拟合。本程序有两个正则化函数,分别是L1和L2,以及一个None选项。L1可以将权值一直衰减到0,因此它能将权值矩阵变稀疏。
  • L2对大的数衰减大,对小的数衰减小,因此它不是那么容易将权重衰减到0,但是它可以获得一个比较均匀的权值矩阵。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档