前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习与神经网络:基于自建手写字体数据集上的模型测试

深度学习与神经网络:基于自建手写字体数据集上的模型测试

作者头像
云时之间
发布2018-07-04 11:02:31
4585
发布2018-07-04 11:02:31
举报
文章被收录于专栏:云时之间

在上一篇文章中,我们使用mnist数据集去做了一个识别的小型神经网络,在今天的这篇文章里,我们将要通过使用自建数据集去检验上一篇文章的模型,从而真正的可以去应用神经网络.

先解决上一篇文章中一些不完美的地方:

在上一篇文章的backward.py中,我们训练神经网络时,如果中途遇到一些事情,想要结束,回过头来再重新开始的话,我们的模型还得需要从第一步一点点开始算,尽管我们已经保存了模型,但是没有用上,这样很不好.而现在我们给我们的模型加上”断点续训”的功能.

首先:先上代码:

在这里我们要用到的是:tf.train.get_checkpoint_state()和saver.restore()这两个函数:

第一个函数的完整格式应该是这样:

tf.train.get_checkpoint_state(checkpoint_dir,latest_filename=None)

这个模型说的是如果断点文件夹里含有这个有效的断点状态文件,那就返回这个文件.

其中checkpoint_dir说的是存储断点的目录,latest_filename=None指的是断点的可选名称,我们默认一般是”checkpoint”.

第二个函数的完整格式应该是这样:

saver.restore(sess, ckpt.model_checkpoint_path)

这个模型说的是恢复当前的会话,把从ckpt中恢复的结果加载到当前的会话中.

sess说的是现在的会话,而ckpt.model_checkpoint_path说的是模型的路径.

就这样,加上上述的代码后,我们就可以实现”断点续训”功能.

说回正题:那我们如何输入真实图片去输出预测结果?

想到我们使用的mnist数据集,数据集中的图片为标准的28*28的黑白文件,并且每个文件的输出为10个可能性概率所构成的一维数组.(十个可能性概率),数组中最大的那个元素所对应的索引号就是预测的结果。

因此我们自己的真实图片需要自己处理一下,使得我们自己的图片来符合模型的要求.

具体操作应该结合代码一起说说:

在这里我们的关键处理:

我们的任务主要是由两个函数构成:

1:testPicArr = pre_pic(testPic),对自己输入的图片进行预处理

2:preValue = restore_modle(testPicArr),对符合神经网络模型要求的图片进行输入,输出预测值.

具体代码如下:

pre_pic():

处理图像这一部分的逻辑比较简单,这里我们要用到PIL这个库.这个库的功能极其丰富,有兴趣的同学可以自己学习下.

代码的处理过程;

(1)模型的要求是黑底白字,但输入的图是白底黑字,所以需要对每个像素点 的值改为 255 减去原值以得到互补的反色。

(2)对图片进行二值化处理,从而降低噪声.

(3)把图片形状拉成 1 行 784 列,并把值变为浮点型(因为要求像素点是 0-1 之间的浮点数)。

(4)接着让现有的 RGB 图从 0-255 之间的数变为 0-1 之间的浮点数。

(5)运行完成后返回到 main 函数。

restore_modle()

这里使用的是滑动平均去减少误差.最后载入我们保存的模型.最后计算求得输出 y,y 的最大值所对应的列表索引号就是预测结果。

最后我们来测试一下:

这里我自己用画板截图了几张图片进行测试:

从比例看,是远远大于28*28的,那让我们看看效果如何?

从测试的情况来看,情况比较一般,部分可以识别,但是有些不能够识别,可能是因为我训练次数太少,等训练次数多应该会有更好的结果.

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.05.15 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档