前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >最终章 | TensorFlow战Kaggle“手写识别达成99%准确率

最终章 | TensorFlow战Kaggle“手写识别达成99%准确率

作者头像
用户1332428
发布2018-03-09 10:45:04
9210
发布2018-03-09 10:45:04
举报
文章被收录于专栏:人工智能LeadAI人工智能LeadAI
这是一个TensorFlow的系列文章,本文是第三篇,在这个系列中,你讲了解到机器学习的一些基本概念、TensorFlow的使用,并能实际完成手写数字识别、图像分类、风格迁移等实战项目。 文章将尽量用平实的语言描述、少用公式、多用代码截图,总之这将是一份很赞的入门指南。欢迎分享/关注。

上一篇文章,我们用CNN实现了手写识别

CNN网络模型举例
CNN网络模型举例

改进方案

1、 使用Keras框架,而不是用TensorFlow自己实现,提升编程效率

2、增加网络的深度,这里增加到了20层

3、每次卷积完之后,加入规范层

4、使用最新的SELU激活函数,这是Sepp Hochreiter最新发表在arXiv上的激活函数,Sepp是当年和Jürgen Schmidhuber 一起发明 LSTM 的神级人物。介绍参考这个链接:「自归一化神经网络」提出新型激活函数SELU(https://www.iana.org/domains/reserved)

理论知识补充(最小知识集)

1、BatchNormalization 的计算原理,优缺点

为了避免对数据的感应不铭感,会对数据做处理,使得数据的变化范围不会太大,这个处理叫normalization预处理。Batch normalization 的 batch 是批数据, 把数据分成小批小批进行随机梯度下降. 而且在每批数据进行前向传递 forward propagation 的时候, 对每一层都进行 normalization 的处理。 优点是可以避免数据对激活函数的饱和从而收敛到更好的结果,并且能减少训练时长。

2、rmsprop 优化器的原理,优缺点

RMSprop 是 Geoff Hinton 提出的一种以梯度的平方来自适应调节学习率的优化方法。 优点是,对于常见参数更新较小,自动更新,不用手动调节学习率 缺点是,因为公式中分母上会累加梯度平方,这样在训练中持续增大的话,会使学习率非常小,甚至趋近无穷小

3、池化层的计算原理

池化层是在几个数据中挑选出最能代表这个区域的,把一个区域简化成一个数值,可以取最大值、最小值、平均值。这样可以降低计算量,降低过拟合。

4、softmax与 sigmoid 激活函数的区别

sigmoid将一个real value映射到(0,1)的区间(当然也可以是(-1,1)),这样可以用来做二分类。

而softmax把一个k维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….)其中bi是一个0-1的数值,b1到bn累加为1,然后可以根据bi的大小来进行多分类的任务,如取权重最大的一维。

5、categorical_crossentropy 的计算原理,为什么选择交叉熵而不是平均平方误差(MSE)

交叉熵计算原理是−[ylna+(1−y)ln(1−a)]。不选择MSE的原因是,使用MSE在Y取较大值时,权重和偏置的更新速度会很慢,而用交叉熵作为损失函数可以克服这个问题

代码实现

1、加载数据集,对数据集进行处理,把输入和结果进行分开

2、设相关参数

3、定义模型

4、查看模型结构,可视化模型

5、训练模型,保存和载入模型

6、生成预测结果

上传Kaggle看结果

请注意,训练是有一定随机性的,如果一次训练的不好,可以反复尝试训练。尽量准确度在99.2%以上,再生成提交结果。

kaggle结果

虽然手写识别已经有无数人做过了,但提交到Kaggle的只有1600多人,我们的结果在200多位,进入了前20%,对于新手来错,应该还可以了。

祝大家好运~~~~

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-10-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能LeadAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、BatchNormalization 的计算原理,优缺点
  • 2、rmsprop 优化器的原理,优缺点
  • 3、池化层的计算原理
  • 4、softmax与 sigmoid 激活函数的区别
  • 5、categorical_crossentropy 的计算原理,为什么选择交叉熵而不是平均平方误差(MSE)
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档