启动网络的自我训练流程,展示网络数字图片识别效果

上一节,我们完成了网络训练代码的实现,还有一些问题需要做进一步的确认。网络的最终目标是,输入一张手写数字图片后,网络输出该图片对应的数字。由于网络需要从0到9一共十个数字中挑选出一个,于是我们的网络最终输出层应该有十个节点,每个节点对应一个数字。假设图片对应的是数字0,那么输出层网络中,第一个节点应该输出一个高百分比,其他节点输出低百分比,如果图片对应的数字是9,那么输出层最后一个节点应该输出高百分比,其他节点输出低百分比,例如下图:

当神经网络认为图片数字是5,那么编号为5的输出节点会给出0.99的高比率,如果网络认为图片对应的数字是0,那么编号为0的节点输出0.95的高比率。最后一个例子是很有意思,编号为4和9的神经元都输出一个不低的比率,这表明图片对应的数字很像4和9,但神经网络认为是9的概率是4的概率的两倍以上。

还记得上一节我们准备好要输入网络的数据吗:

数据的第一个值代表图片对应的数字,我们需要把这种对应信息通过代码表现出来:

#最外层有10个输出节点
onodes = 10
targets = numpy.zeros(onodes) + 0.01
targets[int(all_values[0])] = 0.99
print(targets)

上面代码的输出结果为:

targets第8个元素的值是0.99,这表示图片对应的数字是7,记住数组是从编号0开始的。根据这种做法,我们就能把输入图片给对应的正确数字建立联系,这种联系就可以用于输入到网络中,进行训练。由于一张图片总共有28*28 = 764个数值,因此我们需要让网络的输入层具备764个输入节点,于是网络的初始化以及将数据输入网络进行训练的实现代码为:

#初始化网络
input_nodes = 784
hidden_nodes = 100
output_nodes = 10
learning_rate = 0.3
n = NeuralNetWork(input_nodes, hidden_nodes, output_nodes, learning_rate)
#读入训练数据
#open函数里的路径根据数据存储的路径来设定
training_data_file = open("/Users/chenyi/Documents/人工智能/mnist_train_100.csv")
trainning_data_list = training_data_file.readlines()
training_data_file.close()
#把数据依靠','区分,并分别读入
for record in trainning_data_list:
    all_values = record.split(',')
    inputs = (numpy.asfarray(all_values[1:]))/255.0 * 0.99 + 0.01
    #设置图片与数值的对应关系
    targets = numpy.zeros(output_nodes) + 0.01
    targets[int(all_values[0])] = 0.99
    n.train(inputs, targets)

这里需要注意的是,中间层的节点我们选择了100个神经元,这个选择其实是经验值,也就是中间层的节点数其实没有专门的办法去规定,其数量会根据不同的问题而变化,确定中间层神经元节点数最好的办法是实验,你不停的选取各种数量,看看那种数量能使得网络的表现最好就行。

上面代码把一百条数据输入网络进行训练,现在我们看看训练后的网络它的表现怎样。我们先从加载另一组数据,取出其中一张手写数字图片,将其输入到网络中,看看网络的判断结果如何:

test_data_file = open("/Users/chenyi/Documents/人工智能/mnist_test_10.csv")
test_data_list = test_data_file.readlines()
test_data_file.close()
import numpy
import matplotlib.pyplot
%matplotlib inline

#把数据依靠','区分,并分别读入
all_values = data_list[0].split(',')
#第一个值对应的是图片的表示的数字,所以我们读取图片数据时要去掉第一个数值
image_array = numpy.asfarray(all_values[1:]).reshape((28, 28))
matplotlib.pyplot.imshow(image_array, cmap='Greys', interpolation='None')

这段代码我们在上一节讲解过,我们把测试数据里面的第一张手写数字图片先绘制出来,代码运行结果如下:

通过人眼观察,我们基本确定这种图片对应的是数字7,那么网络识别它的结果如何呢,我们将这张图片的数字输入到网络看看其识别结果:

n.query(numpy.asfarray(all_values[1:]) / 255.0  * 0.99 + 0.01)

上面这行代码运行后结果如下:

前面我们讨论过最外层节点输出的意义,最外层节点有十个,分别对应0到9十个数字,哪个节点输出的数值高,那意味着网络认为图片对应哪个数字,我们看到网络输出中,对应编号为7的节点输出值最大,为0.68,也就是说网络把图片识别为数字7,这与我们的观察是一致的,这么说我们辛辛苦苦打造的网络是有效的,前面那么多的铺垫到现在终于有了收获。

我们原来给网络输入的训练数据来自trainning_set,而现在给网络判断的图片来自testing_set,因此网络从未见过这张图片,它能识别这张图片是数字7,这种能力是通过分析训练图片,不断改进链路权重值的结果。实现网络的Python代码不过百来行,他居然就能实现了我们所认为的人工智能,如此看来人工智能似乎并非那么神秘。

接着我们把所有测试图片都输入网络,看看它检测的效果如何,代码如下:

scores = []
for record in test_data_list:
    all_values = record.split(',')
    correct_number = int(all_values[0])
    print("该图片对应的数字为:",correct_number)
    #预处理数字图片
    inputs = (numpy.asfarray(all_values[1:])) / 255.0 * 0.99 + 0.01
    #让网络判断图片对应的数字
    outputs = n.query(inputs)
    #找到数值最大的神经元对应的编号
    label = numpy.argmax(outputs)
    print("out put reslut is : ", label)
    #print("网络认为图片的数字是:", label)
    if label == correct_number:
        scores.append(1)
    else:
        scores.append(0)
print(scores)

上面代码把测试数据集里的10张图片全部加载,然后输入到网络中,看看网络对每张数字图片的识别效果如何,上面代码运行后结果如下:

从输出结果看,有些图片网络还是识别错了,最后代码打印出一个数组,里面的1表示识别正确,0表示识别错误,从数组内容看,有4张图片网络给出了错误答案。这次的结果多少令人有些沮丧,我们计算一下图片判断的成功率:

scores_array = numpy.asarray(scores)
print("perfermance = ", scores_array.sum() / scores_array.size)

代码运行后结果如下:

由此看来,网络识别的成功率只有六成。为了提升成功率,我们必须加大网络的训练力度,原来我们训练网络时只使用了100条数据,现在我们使用60000条数据,然后用10000条数据作为测试集,我们从以下两个链接获取相应的数据集:

http://www.pjreddie.com/media/files/mnist_train.csv
http://www.pjreddie.com/media/files/mnist_test.csv

然后我们把原来代码做一点小修改,加载上面的数据来对网络进行训练和测试:

#初始化网络
input_nodes = 784
hidden_nodes = 100
output_nodes = 10
learning_rate = 0.3
n = NeuralNetWork(input_nodes, hidden_nodes, output_nodes, learning_rate)
#读入训练数据
#open函数里的路径根据数据存储的路径来设定
training_data_file = open("/Users/chenyi/Documents/人工智能/mnist_train.csv")
trainning_data_list = training_data_file.readlines()
print(len(trainning_data_list))
training_data_file.close()
#把数据依靠','区分,并分别读入
for record in trainning_data_list:
    all_values = record.split(',')
    inputs = (numpy.asfarray(all_values[1:]))/255.0 * 0.99 + 0.01
    #设置图片与数值的对应关系
    targets = numpy.zeros(output_nodes) + 0.01
    targets[int(all_values[0])] = 0.99
    n.train(inputs, targets)

test_data_file = open("/Users/chenyi/Documents/人工智能/mnist_test.csv")
test_data_list = test_data_file.readlines()
test_data_file.close()
scores = []
for record in test_data_list:
    all_values = record.split(',')
    correct_number = int(all_values[0])
    #预处理数字图片
    inputs = (numpy.asfarray(all_values[1:])) / 255.0 * 0.99 + 0.01
    #让网络判断图片对应的数字
    outputs = n.query(inputs)
    #找到数值最大的神经元对应的编号
    label = numpy.argmax(outputs)
    if label == correct_number:
        scores.append(1)
    else:
        scores.append(0)
scores_array = numpy.asarray(scores)
print("perfermance = ", scores_array.sum() / scores_array.size)

上面代码跟以前是一样的,只不过加载的数据文件不同而已,这次我们用60000条数据来训练网络,然后用10000条数据来检测网络的准确性,上面代码执行后结果如下:

从结果上看,当训练网络的数据流增大后,网络识别的正确性由原来的0.6提升到0.9,我们再次用新训练后的网络识别原来那十张数字图片,得到结果如下:

经过大数据训练后的网络,对图片的识别率达到了百分之百,这意味着当用于训练网络的数据越多,网络识别的效果就越好,这就是为何在某种程度上说,人工智能也是大公司的大杀器,因为只有大公司才能拥有足量的数据。

在整个过程,我们一直保持着学习率不变,实际上学习率的大小对网络的训练效果有很大影响,大家可以把该参数改成0.6,0.1等不同的值去看看结果,另外也可以修改中间层的节点数看看有什么效果。

这里我们引入在第一节时提到的一个概念叫epocs,它表示网络进行几次训练循环,对其使用的代码如下:

#加入epocs,设定网络的训练循环次数
epochs = 10

for e in range(epochs):
    #把数据依靠','区分,并分别读入
    for record in trainning_data_list:
        all_values = record.split(',')
        inputs = (numpy.asfarray(all_values[1:]))/255.0 * 0.99 + 0.01
        #设置图片与数值的对应关系
        targets = numpy.zeros(output_nodes) + 0.01
        targets[int(all_values[0])] = 0.99
        n.train(inputs, targets)

也就是在原来网络训练的基础上再加上一层外循环,上面代码运行后执行的对于普通电脑而言执行的时间会很长。一般来说,epochs 的数值越大,网络被训练的就越精准,但如果超过一个阈值,网络就会引发一个过渡拟合的问题,也就是网络会对老数据识别的很精准,但对新数据识别的效率反而变得越来越低,大家可以自行尝试一下不同的学习率和epochs组合,看看网络的识别精度是否有所提高,另外大家也可以修改中间层的节点数看看其对网络的识别精度是否有显著影响,在我电脑上把epochs设置成7时,成功率能提升到95%。

原文发布于微信公众号 - Coding迪斯尼(gh_c9f933e7765d)

原文发表时间:2018-05-08

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏书山有路勤为径

卡尔曼滤波器(Kalman Filters)

卡尔曼滤波器,这是一种使用噪声传感器测量(和贝叶斯规则)来生成未知量的可靠估计的算法(例如车辆可能在3秒内的位置)。

3663
来自专栏机器之心

教程 | 初学者入门:如何用Python和SciKit Learn 0.18实现神经网络?

选自Springboard 作者:Jose Portilla 机器之心编译 参与:Jane W、吴攀 本教程的代码和数据来自于 Springboard 的博客...

36111
来自专栏老秦求学

[Deep-Learning-with-Python] Keras高级概念

目前为止,介绍的神经网络模型都是通过Sequential模型来实现的。Sequential模型假设神经网络模型只有一个输入一个输出,而且模型的网络层是线性堆叠在...

1621
来自专栏PaddlePaddle

转载|使用PaddleFluid和TensorFlow训练序列标注模型

上一篇通过转载|使用PaddleFluid和TensorFlow训练RNN语言模型大家了解了:

1223
来自专栏ATYUN订阅号

使用TensorFlow动手实现的简单的股价预测模型

本文是一个通过模拟预测股票,教会大家如何动手操作TensorFlow的教程,结果不具有权威性。因为股票价格的实际预测是一项非常复杂的任务,尤其是像本文这种按分钟...

3486
来自专栏数据派THU

独家 | 一文读懂TensorFlow基础

本文长度为7196字,建议阅读10分钟 本文为你讲解如何使用Tensorflow进行机器学习和深度学习。 1. 前言 深度学习算法的成功使人工智能的研究和应用取...

2547
来自专栏杨熹的专栏

Machine Learning Notes-Linear Regression-Udacity

什么是 Regression? Regression 就是想找到因变量和自变量之间的关系,用一个函数来表示,并且可用这个函数来预测任意一个新的 x 会有怎样的 ...

3584
来自专栏大数据文摘

【自测】斯坦福深度学习课程第五弹:作业与解答2

2959
来自专栏数据结构与算法

P1038 神经网络

题目背景 人工神经网络(Artificial Neural Network)是一种新兴的具有自我学习能力的计算系统,在模式识别、函数逼近及贷款风险评估等诸多领域...

3488
来自专栏数据科学学习手札

(数据科学学习手札35)tensorflow初体验

  TensorFlow时谷歌于2015年11月宣布在Github上开源的第二代分布式机器学习系统,目前仍处于快速开发迭代中,有大量的新功能新特性在陆续研发中;

4176

扫码关注云+社区

领取腾讯云代金券