# 教程 | 基于LSTM实现手写数字识别

LSTM网络构建

01

```# create RNN network
X = tf.placeholder(shape=[None, time_steps, num_features], dtype=tf.float32)
Y = tf.placeholder(shape=[None, 10], dtype=tf.float32)```

• None: 表示batchsize的大小或者数目
• time_steps: 网络把输出重新输入的次数
• num_features: 输入矩阵/神经元

```lstm_cell = rnn.BasicLSTMCell(num_hidden, forget_bias=1.0)
outputs, states = rnn.static_rnn(lstm_cell, x, dtype=tf.float32)```

lstm_cell 表示 LSTM 的单元 num_hidden : 隐藏层节点数目 forget_bias: 遗忘门中要加上的增益偏置 outputs: 网络输出 states：状态

02

• 加载数据集
• 创建LSTM网络
• 训练网络
• 执行测试
```import tensorflow as tf
from tensorflow.contrib import rnn
import numpy as np

from tensorflow.examples.tutorials.mnist import input_data
print(tf.__version__)

num_hidden = 128
time_steps = 28
num_features = 28
num_classes = 10
batch_size = 128

# create RNN network
X = tf.placeholder(shape=[None, time_steps, num_features], dtype=tf.float32)
Y = tf.placeholder(shape=[None, 10], dtype=tf.float32)

# Define weights
weights = {
'out': tf.Variable(tf.random_normal([num_hidden, num_classes]))
}
biases = {
'out': tf.Variable(tf.random_normal([num_classes]))
}

def rnn_network(x, weights, biases):
x = tf.unstack(x, time_steps, 1)
lstm_cell = rnn.BasicLSTMCell(num_hidden, forget_bias=1.0)
outputs, states = rnn.static_rnn(lstm_cell, x, dtype=tf.float32)
return tf.matmul(outputs[-1], weights['out']) + biases['out']

# 输入预测
logits = rnn_network(X, weights, biases)
prediction = tf.nn.softmax(logits)

# 定义损失函数与优化器
loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(
logits=logits, labels=Y))
train_op = optimizer.minimize(loss_op)

# 计算识别精度
correct_pred = tf.equal(tf.argmax(prediction, 1), tf.argmax(Y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

# 开始训练
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for step in range(1, 5001):
batch_x, batch_y = mnist.train.next_batch(batch_size)
# Reshape data to get 28 seq of 28 elements
batch_x = batch_x.reshape((batch_size, time_steps, num_features))
# Run optimization op (backprop)
sess.run(train_op, feed_dict={X: batch_x, Y: batch_y})
if step % 1000 == 0 or step == 1:
# Calculate batch loss and accuracy
loss, acc = sess.run([loss_op, accuracy], feed_dict={X: batch_x,
Y: batch_y})
print("Step " + str(step) + ", Loss= " + \
"{:.4f}".format(loss) + ", Training Accuracy= " + \
"{:.3f}".format(acc))

print("Optimization Finished!")

# 使用测试数据集测试训练号的模型， 测试128张手写数字图像
test_len = 128
test_data = mnist.test.images[:test_len].reshape((-1, time_steps, num_features))
test_label = mnist.test.labels[:test_len]
print("Testing Accuracy:", \
sess.run(accuracy, feed_dict={X: test_data, Y: test_label}))```

0 条评论

• ### tensorflow中实现神经网络训练手写数字数据集mnist

基于tensorflow实现一个简单的三层神经网络，并使用它训练mnist数据集，神经网络三层分别为：

• ### TensorFlow中的feed与fetch

TensorFlow中的feed与fetch 一：占位符(placeholder)与feed 当我们构建一个模型的时候，有时候我们需要在运行时候输入一些初始数...

• ### 干货 | Tensorflow设计简单分类网络实现猫狗图像分类训练与测试

第一层：32个feature map 5x5卷积、步长为2、最大值池化 局部相应归一化处理（LRN） 第二层：64个feature map 3x3卷积、步长为...

• ### 三天速成 TensorFlow课件分享

该教程第一天先介绍了深度学习和机器学习的潜力与基本概念，而后便开始探讨深度学习框架 TensorFlow。首先我们将学到如何安装 TensorFlow，其实我们...

• ### TensorFlow2.X学习笔记(1)--TensorFlow核心概念

TensorFlow™ 是一个采用 数据流图（data flow graphs），用于数值计算的开源软件库。节点（Nodes）在图中表示数学操作，图中的线（e...

• ### TensorFlow2.X学习笔记(3)--TensorFlow低阶API之张量

TensorFlow提供的方法比numpy更全面，运算速度更快，如果需要的话，还可以使用GPU进行加速。

• ### TensorFlow2.X学习笔记(4)--TensorFlow低阶API之AutoGraph相关研究

而Autograph机制可以将动态图转换成静态计算图，兼收执行效率和编码效率之利。

• ### 【TensorFlow篇】--Tensorflow框架可视化之Tensorboard

TensorBoard是tensorFlow中的可视化界面，可以清楚的看到数据的流向以及各种参数的变化，本文基于一个案例讲解TensorBoard的用法。

### OpenCV学堂

OpenCV开发专家计算机视觉开发