TensorFlow基础入门

注:这篇文章的内容来自课程[Improving Deep Neural Networks: Hyperparameter tuning, Regularization and Optimization]的编程练习。coursera上的编程练习设计得非常贴心,一步步引导学员完成练习,对于编程基础薄弱的同学尤为友好。

到目前为止,您一直使用numpy来构建神经网络。现在我们将引导您使用一个深度学习框架,让您可以更轻松地构建神经网络。TensorFlow、PaddlePaddle、Torch、Caffe、Keras等机器学习框架可显著加速机器学习开发。在此作业中,您将学习在TensorFlow中执行以下操作:

  • 初始化变量
  • 开始会话
  • 训练算法
  • 实施神经网络

编程框架不仅可以缩短编码时间,而且有时还可以执行优化来加速代码。

1 - 探索Tensorflow程序库

首先,请导入相关库:

import math
import numpy as np
import h5py
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.python.framework import ops
from tf_utils import load_dataset, random_mini_batches, convert_to_one_hot, predict%matplotlib inline
np.random.seed(1)

现在您已经导入了该库,我们将引导您完成不同的应用程序。您将从一个例子开始,在这里我们为您计算一个训练样例的损失。

y_hat = tf.constant(36, name='y_hat')            # 定义y_hat常量,值为36.
y = tf.constant(39, name='y')                    # 定义y,值为39loss = tf.Variable((y - y_hat)**2, name='loss')  # 为损失创建一个变量init = tf.global_variables_initializer()         # init将在后面运行 (session.run(init)),
                                                # loss变量将被初始化,准备计算
with tf.Session() as session:                    # 创建一个会话并打印输出
   session.run(init)                            # 初始化变量
   print(session.run(loss))                     # 打印loss值

在TensorFlow中编写和运行程序有以下步骤:

  1. 创建尚未执行/评估的张量(变量)。
  2. 在这些张量之间写入操作。
  3. 初始化张量。
  4. 创建一个会话。
  5. 运行会话,它将运行您上面写的操作。

因此,当我们为损失创建一个变量时,我们简单地将损失定义为其他数的函数,但没有评估它的值。为了评估它,我们必须运行init=tf.global_variables_initializer()。它初始化损失变量,并在最后一行代码中,评估损失的值并打印其值。

现在让我们看一个简单的例子:

a = tf.constant(2)
b = tf.constant(10)
c = tf.multiply(a,b)
print(c)

输出为 Tensor(“Mul:0”, shape=(), dtype=int32)

正如所料,您不会看到20!而是得到一个张量,结果是一个没有shape属性的张量,它的类型是”int32”。您所做的只是放在’计算图’中,但您还没有运行这个计算。为了真正相加这两个数字,您将不得不创建一个会话并运行它。

sess = tf.Session()
print(sess.run(c))

输出为 20

很棒! 总结一下,记得初始化变量,创建一个会话并在会话中运行这些操作

接下来,您还必须了解占位符。占位符是一个对象,其值只能在稍后指定。要指定占位符的值,可以使用”馈送字典”(feed_dict变量)传入值。下面,我们为x创建了一个占位符,这允许我们稍后在运行会话时传入一个数字。

# 在feed_dict中改变x的值x = tf.placeholder(tf.int64, name = 'x')
print(sess.run(2 * x, feed_dict = {x: 3}))
sess.close()

输出为 6

当您第一次定义x时,您不必为它指定一个值。占位符只是一个变量,您将仅在以后运行会话时分配数据。也就是说您在运行会话时向这些占位符提供数据

以下是所发生的事情:当您指定计算所需的操作时,也就是告诉TensorFlow如何构建计算图。计算图可以有一些占位符,其值将在稍后指定。最后,当您运行会话时,告诉TensorFlow执行计算图。

1.1 - 线性函数

让我们通过计算以下等式来开始编程练习:Y = WX + bY,其中W和X是随机矩阵,b是随机向量。

练习:计算WX + b,其中W,X和b符合随机正态分布。W的形状是(4,3),X为(3,1),b是(4,1)。作为一个示例,下面代码是如何定义一个具有shape(3,1)的常量X:

X = tf.constant(np.random.randn(3,1),name ="X")

您可能会发现以下函数很有用:

  • tf.matmul(…, …)做一个矩阵乘法
  • tf.add(…, …)做一个加法
  • np.random.randn(…)随机初始化
# GRADED FUNCTION: linear_functiondef linear_function():
   """
   实现一个线性函数:
           初始化W为一个形状为(4,3)的随机张量
           初始化X为一个形状为(3,1)的随机张量
           初始化b为一个形状为(4,1)的随机张量
   返回:
   result -- 运行Y = WX + b会话的结果
   """   np.random.seed(1)   ### START CODE HERE ### (4 lines of code)
   X = tf.constant(np.random.randn(3, 1), name = "X")
   W = tf.constant(np.random.randn(4, 3), name = "W")
   b = tf.constant(np.random.randn(4, 1), name = "b")
   Y = tf.add(tf.matmul(W, X), b)
   ### END CODE HERE ###   # 使用tf.Session()创建会话,并用sess.run运行您要计算的变量   ### START CODE HERE ###
   sess = tf.Session()
   result = sess.run(Y)
   ### END CODE HERE ###   # 关闭会话
   sess.close()   return result

1.2 - 计算sigmoid

非常棒! 您刚刚实现了一个线性函数。Tensorflow提供了各种常用的神经网络函数,如tf.sigmoid和tf.softmax。对于这个练习,我们计算一个输入的sigmoid函数。

您将使用占位符变量x执行此练习。运行会话时,应该使用馈送字典传入z。在本练习中,您需要(1) 创建一个占位符x,(2) 使用tf.sigmoid定义计算sigmoid值,然后(3) 运行会话。

练习:实现下面的sigmoid函数,参考使用以下代码:

tf.placeholder(tf.float32,name ="...")
tf.sigmoid(...)
sess.run(..., feed_dict = {x: z})

请注意,有两种典型的方式来创建和使用tensorflow中的会话:

方法1:

sess = tf.Session()
# Run the variables initialization (if needed), run the operations
result = sess.run(..., feed_dict = {...})
sess.close() # Close the session

方法2:

with tf.Session() as sess:
   # run the variables initialization (if needed), run the operations
   result = sess.run(..., feed_dict = {...})
   # This takes care of closing the session for you :)
# GRADED FUNCTION: sigmoiddef sigmoid(z):
   """
   计算z的sigmoid值   参数:
   z -- 输入值,标量或向量   返回:
   results -- z的sigmoid值
   """   ### START CODE HERE ### ( approx. 4 lines of code)
   # 为x创建一个占位符,命名为'x'.
   x = tf.placeholder(tf.float32, name = "x")   # 计算sigmoid(x)
   sigmoid = tf.sigmoid(x)   # 创建一个会话,运行之。请使用上面提到的方法2。
   # 您应该使用一个feed_dic将z的值传递给x。
   with tf.Session() as sess:
       # 运行会话并输出结果给"result"
       result = sess.run(sigmoid, feed_dict = {x:z})   ### END CODE HERE ###   return result

总结一下,您现在知道如何:

  1. 创建占位符
  2. 指定计算对应的计算图
  3. 创建会话
  4. 运行会话,必要时使用馈送字典来指定占位符变量的值。

1.3 - 计算代价(cost)

您也可以使用内置函数来计算神经网络的代价。因此,您大可不必编写代码计算函数:

在tensorflow中只需一行代码即可完成!

练习:实现交叉熵损失,您将使用的函数是:

tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...)

您的代码应该输入z,计算sigmoid(得到a),然后计算交叉熵代价J。所有这些都可以通过一次调用tf.nn.sigmoid_cross_entropy_with_logits来完成,它将计算:

# GRADED FUNCTION: costdef cost(logits, labels):
   """
   使用交叉熵计算代价   参数:
   logits -- 包含z的向量,最后一个线性单元的输出(在sigmoid激活之前)
   labels -- 标签向量y(1或0)   注意: 在本类中我们叫做"z"和"y"的,在TensorFlow文档中分别称作"logits"和"labels"。所以logits将传入z, 而labels传入y.   返回:
   cost -- 运行会话计算出的成本(根据公式(2))
   """   ### START CODE HERE ###   # 为"logits" (z) 和 "labels" (y)创建占位符
   z = tf.placeholder(tf.float32, shape = logits.shape, name = "logits")
   y = tf.placeholder(tf.float32, shape = labels.shape, name = "labels")   # 使用损失函数
   cost = tf.nn.sigmoid_cross_entropy_with_logits(logits = z, labels = y)   # 创建会话,参考上面的方法1
   sess = tf.Session()   # 运行会话
   cost = sess.run(cost, feed_dict={z: logits, y: labels})   # 关闭会话
   sess.close()   ### END CODE HERE ###   return cost

1.4 - 使用一位有效编码(One Hot encoding)

在很多深度学习里,您会得到一个y向量,数字范围从0到C-1,其中C是类的数量。比如C为4,那么您可能得到以下的y矢量,您需要按如下方式进行转换:

这通常称为”一位有效(one hot)”编码,因为在转换的表示中,每列的对应元素是”有效位(hot)”(意思是设置为1)。要在numpy中进行这种转换,您可能需要编写好几行代码。在tensorflow中,只需一行代码:

tf.one_hot(labels, depth, axis)

练习:运行下面的函数,取一个标签向量和类别总数C,返回one hot编码。请使用tf.one_hot()来实现。

# GRADED FUNCTION: one_hot_matrixdef one_hot_matrix(labels, C):
   """
   创建一个矩阵,其第i行对应第i个类别,且第j列对应第j个训练样本,也即如果样本j的标签为i,则矩阵(i,j)的元素值为1。   参数:
   labels -- 包含标签的向量
   C -- 类别的数量,也是one hot维度值   返回:
   one_hot -- one hot矩阵
   """   ### START CODE HERE ###   # 创建等于C的常量,命名为'C'.
   C = tf.constant(C)   # 使用tf.one_hot, 请注意axis参数值
   one_hot_matrix = tf.one_hot(labels, C, axis = 0)   # 创建会话
   sess = tf.Session()   # 运行会话
   one_hot = sess.run(one_hot_matrix)   # 关闭会话
   sess.close()   ### END CODE HERE ###   return one_hot

1.5 - 使用零和一初始化

现在您将学习如何初始化一个零和一的向量。你要调用的函数是tf.ones()。要用零初始化,你可以使用tf.zeros()来代替。这些函数传入一个shape,分别返回一个全部元素为0和1的且维数等于shape的数组。

练习:实现下面的函数,传入shape并返回一个数组(维数和shape相同)。

tf.ones(shape)
# GRADED FUNCTION: onesdef ones(shape):
   """
   创建一个维度为shape的全1数组   参数:
   shape -- 您要创建的数组的维度shape   返回:
   ones -- 全1数组
   """   ### START CODE HERE ###   # 使用tf.ones(...)创建"ones"张量
   ones = tf.ones(shape)   # 创建会话
   sess = tf.Session()   # 运行会话,计算'ones'
   ones = sess.run(ones)   # 关闭会话
   sess.close()   ### END CODE HERE ###
   return ones

2 - 在tensorflow中构建您的第一个神经网络

在这部分任务中,您将使用tensorflow建立一个神经网络。请记住,实现tensorflow模型分为两部分:

  • 创建计算图
  • 运行图

让我们深入探讨您要解决的问题!

2.0 - 问题陈述:SIGNS数据集

有一天下午,和一些朋友一起,我们决定教电脑破译手语。我们花了几个小时在白墙前拍摄照片,得到了以下数据集。现在您的工作是构建一个算法,以便帮助语言障碍人士与不懂手语的人进行沟通。

  • 训练数据集:1080个图片(64×64像素),代表从0到5的手势(每个数字180张图片)。
  • 测试数据集:120张图片(64×64像素),代表从0到5的手势(每个数字20张图片)。

请注意,这是SIGNS数据集的一个子集。完整的数据集包含更多的手势。

以下是每个数字的示例,以及我们如何表示标签。这些是在我们将图像解像度降低到64×64像素之前的原始图片。

运行以下代码以加载数据集。

X_train_orig, Y_train_orig, X_test_orig, Y_test_orig, classes = load_dataset()

通常,我们需要将图像数据集压平(flatten),然后除以255将其归一化。最重要的是,将每个标签转换为one hot矢量。运行下面的代码以执行此操作。

# 压平训练和测试图片
X_train_flatten = X_train_orig.reshape(X_train_orig.shape[0], -1).T
X_test_flatten = X_test_orig.reshape(X_test_orig.shape[0], -1).T
# 归一化图像向量
X_train = X_train_flatten/255.
X_test = X_test_flatten/255.
# 将训练和测试标签转换为one hot矩阵
Y_train = convert_to_one_hot(Y_train_orig, 6)
Y_test = convert_to_one_hot(Y_test_orig, 6)print ("number of training examples = " + str(X_train.shape[1]))
print ("number of test examples = " + str(X_test.shape[1]))
print ("X_train shape: " + str(X_train.shape))
print ("Y_train shape: " + str(Y_train.shape))
print ("X_test shape: " + str(X_test.shape))
print ("Y_test shape: " + str(Y_test.shape))

number of training examples = 1080 number of test examples = 120 X_train shape: (12288, 1080) Y_train shape: (6, 1080) X_test shape: (12288, 120) Y_test shape: (6, 120)

请注意,12288来自64×64×364×64×3。每个图像是方形的,64×64像素,3是RGB颜色。在继续任务之前,请确保您了解所有这些形状的含义。

您的目标是构建能够高准确度识别手势的算法。要做到这一点,您要建立一个tensorflow模型,这个模型几乎和您之前使用numpy构建的猫识别模型一样(但现在使用softmax输出)。将您的numpy实现与tensorflow实现进行比较是一个不错的点子。

模型定义为LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX。SIGMOID输出层替换为SOFTMAX。当超过两个类别时,SOFTMAX层比SIGMOID更通用。

2.1 - 创建占位符

您的第一项任务是为X和Y创建占位符,可以稍后在运行会话时传递训练数据。

练习:执行下面的函数以创建tensorflow中的占位符。

# GRADED FUNCTION: create_placeholdersdef create_placeholders(n_x, n_y):
   """
   为tensorflow会话创建占位符.   参数:
   n_x -- 标量, 图像向量的大小(num_px * num_px = 64 * 64 * 3 = 12288)
   n_y -- 标量, 类别的数量(从0到5, 所以 -> 6)   返回:
   X -- 数据输入占位符,形状为[n_x, None],数据类型"float"
   Y -- 输入标签的占位符,形状[n_y, None],数据类型"float"   提示:
   - 您将使用None,因为它使我们能够灵活处理占位符所代表的样本的数量.
     事实上,测试/训练阶段样本的数量是不同的.
   """   ### START CODE HERE ### (approx. 2 lines)
   X = tf.placeholder(dtype = tf.float32, shape = (n_x, None), name = "X")
   Y = tf.placeholder(dtype = tf.float32, shape = (n_y, None), name = "Y")
   ### END CODE HERE ###   return X, Y

2.2 - 初始化参数

您的第二个任务是在tensorflow中初始化参数。

练习:执行下面的函数来初始化tensorflow中的参数。您将使用Xavier来初始化权重,使用零初始化偏置,其形状如下所示。作为一个示范,对于W1和b1您可以使用:

W1 = tf.get_variable("W1", [25,12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
b1 = tf.get_variable("b1", [25,1], initializer = tf.zeros_initializer())

请使用seed = 1来确保您的结果与我们的结果相符。

# GRADED FUNCTION: initialize_parametersdef initialize_parameters():
   """
   Initializes parameters to build a neural network with tensorflow. The shapes are:
                       W1 : [25, 12288]
                       b1 : [25, 1]
                       W2 : [12, 25]
                       b2 : [12, 1]
                       W3 : [6, 12]
                       b3 : [6, 1]   Returns:
   parameters -- a dictionary of tensors containing W1, b1, W2, b2, W3, b3
   """   tf.set_random_seed(1)                   # so that your "random" numbers match ours   ### START CODE HERE ### (approx. 6 lines of code)
   W1 = tf.get_variable("W1", [25, 12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
   b1 = tf.get_variable("b1", [25, 1], initializer = tf.zeros_initializer())
   W2 = tf.get_variable("W2", [12, 25], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
   b2 = tf.get_variable("b2", [12, 1], initializer = tf.zeros_initializer())
   W3 = tf.get_variable("W3", [6, 12], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
   b3 = tf.get_variable("b3", [6, 1], initializer = tf.zeros_initializer())
   ### END CODE HERE ###   parameters = {"W1": W1,
                 "b1": b1,
                 "W2": W2,
                 "b2": b2,
                 "W3": W3,
                 "b3": b3}   return parameters

2.3 - Tensorflow中的前向传播

您现在将实现tensorflow中的前向传播模块。该函数将接收参数字典并完成前向传递。您将使用的函数有:

  • tf.add(…, …)做一个加法
  • tf.matmul(…, …)做一个矩阵乘法
  • tf.nn.relu(…)应用ReLU激活

问题:实现神经网络的前向传递。我们为您添加了numpy等价代码注释,以便您可以将tensorflow实现与numpy进行比较。重要的是要注意前向传播在z3处停止。原因在于,在tensorflow中,最后的线性层输出作为输入给计算损失的函数。因此,您不需要a3!

# GRADED FUNCTION: forward_propagationdef forward_propagation(X, parameters):
   """
   Implements the forward propagation for the model: LINEAR -> RELU -> LINEAR -> RELU -> LINEAR -> SOFTMAX   Arguments:
   X -- input dataset placeholder, of shape (input size, number of examples)
   parameters -- python dictionary containing your parameters "W1", "b1", "W2", "b2", "W3", "b3"
                 the shapes are given in initialize_parameters   Returns:
   Z3 -- the output of the last LINEAR unit
   """   # Retrieve the parameters from the dictionary "parameters"
   W1 = parameters['W1']
   b1 = parameters['b1']
   W2 = parameters['W2']
   b2 = parameters['b2']
   W3 = parameters['W3']
   b3 = parameters['b3']   ### START CODE HERE ### (approx. 5 lines)              # Numpy Equivalents:
   Z1 = tf.add(tf.matmul(W1, X), b1)                      # Z1 = np.dot(W1, X) + b1
   A1 = tf.nn.relu(Z1)                                    # A1 = relu(Z1)
   Z2 = tf.add(tf.matmul(W2, A1), b2)                     # Z2 = np.dot(W2, a1) + b2
   A2 = tf.nn.relu(Z2)                                    # A2 = relu(Z2)
   Z3 = tf.add(tf.matmul(W3, A2), b3)                     # Z3 = np.dot(W3,Z2) + b3
   ### END CODE HERE ###   return Z3

2.4 - 计算代价

如前所见,使用以下方法计算代价非常简单:

tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = ..., labels = ...))

问题:实现如下代价函数。

  • 重的一点,tf.nn.softmax_cross_entropy_with_logits的“logits”和“labels”输入形状为(样本数量, 类别数目)。 我们已经为您转换了Z3和Y.
  • 另外,tf.reduce_mean是对样本进行求和的。
# GRADED FUNCTION: compute_costdef compute_cost(Z3, Y):
   """
   Computes the cost   Arguments:
   Z3 -- output of forward propagation (output of the last LINEAR unit), of shape (6, number of examples)
   Y -- "true" labels vector placeholder, same shape as Z3   Returns:
   cost - Tensor of the cost function
   """   # to fit the tensorflow requirement for tf.nn.softmax_cross_entropy_with_logits(...,...)
   logits = tf.transpose(Z3)
   labels = tf.transpose(Y)   ### START CODE HERE ### (1 line of code)
   cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = logits, labels = labels))
   ### END CODE HERE ###   return cost

2.5 - 反向传播 & 参数更新

这里您要感谢编程框架。所有反向传播和参数更新都在1行代码里处理,模型中加入这行代码非常容易。

计算代价函数后,您将创建一个“优化器”对象。运行tf.session时,必须一起调用此对象与代价。当被调用时,它将使用所选择的方法和学习速率对给定代价进行优化。

例如,梯度下降优化器:

optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(cost)

要进行优化,您应该这样做:

_ , c = sess.run([optimizer, cost], feed_dict={X: minibatch_X, Y: minibatch_Y})

通过tensorflow图以相反顺序来计算反向传播,从代价到输入。

注意编码时,我们经常使用_作为“一次性”变量来存储我们稍后不需要使用的值。这里,_返回我们不需要的优化器的评估值(c取值代价变量)。

2.6 - 构建模型

现在,将把它们组合在一起!

练习:实现模型。您将会调用之前实现的功能。

def model(X_train, Y_train, X_test, Y_test, learning_rate = 0.0001,
         num_epochs = 1500, minibatch_size = 32, print_cost = True):
   """
   Implements a three-layer tensorflow neural network: LINEAR->RELU->LINEAR->RELU->LINEAR->SOFTMAX.   Arguments:
   X_train -- training set, of shape (input size = 12288, number of training examples = 1080)
   Y_train -- test set, of shape (output size = 6, number of training examples = 1080)
   X_test -- training set, of shape (input size = 12288, number of training examples = 120)
   Y_test -- test set, of shape (output size = 6, number of test examples = 120)
   learning_rate -- learning rate of the optimization
   num_epochs -- number of epochs of the optimization loop
   minibatch_size -- size of a minibatch
   print_cost -- True to print the cost every 100 epochs   Returns:
   parameters -- parameters learnt by the model. They can then be used to predict.
   """   ops.reset_default_graph()                         # to be able to rerun the model without overwriting tf variables
   tf.set_random_seed(1)                             # to keep consistent results
   seed = 3                                          # to keep consistent results
   (n_x, m) = X_train.shape                          # (n_x: input size, m : number of examples in the train set)
   n_y = Y_train.shape[0]                            # n_y : output size
   costs = []                                        # To keep track of the cost   # Create Placeholders of shape (n_x, n_y)
   ### START CODE HERE ### (1 line)
   X, Y = tf.placeholder(dtype=tf.float32, shape=(n_x, None), name = "X"), tf.placeholder(dtype=tf.float32, shape=(n_y, None), name = "Y")
   ### END CODE HERE ###   # Initialize parameters
   ### START CODE HERE ### (1 line)
   parameters = initialize_parameters()
   ### END CODE HERE ###   # Forward propagation: Build the forward propagation in the tensorflow graph
   ### START CODE HERE ### (1 line)
   Z3 = forward_propagation(X, parameters)
   ### END CODE HERE ###   # Cost function: Add cost function to tensorflow graph
   ### START CODE HERE ### (1 line)
   cost = compute_cost(Z3, Y)
   ### END CODE HERE ###   # Backpropagation: Define the tensorflow optimizer. Use an AdamOptimizer.
   ### START CODE HERE ### (1 line)
   optimizer = tf.train.GradientDescentOptimizer(learning_rate = learning_rate).minimize(cost)
   ### END CODE HERE ###   # Initialize all the variables
   init = tf.global_variables_initializer()   # Start the session to compute the tensorflow graph
   with tf.Session() as sess:       # Run the initialization
       sess.run(init)       # Do the training loop
       for epoch in range(num_epochs):           epoch_cost = 0.                       # Defines a cost related to an epoch
           num_minibatches = int(m / minibatch_size) # number of minibatches of size minibatch_size in the train set
           seed = seed + 1
           minibatches = random_mini_batches(X_train, Y_train, minibatch_size, seed)           for minibatch in minibatches:               # Select a minibatch
               (minibatch_X, minibatch_Y) = minibatch               # IMPORTANT: The line that runs the graph on a minibatch.
               # Run the session to execute the "optimizer" and the "cost", the feedict should contain a minibatch for (X,Y).
               ### START CODE HERE ### (1 line)
               _ , minibatch_cost = sess.run([optimizer, cost], feed_dict={X: minibatch_X, Y: minibatch_Y})
               ### END CODE HERE ###               epoch_cost += minibatch_cost / num_minibatches           # Print the cost every epoch
           if print_cost == True and epoch % 100 == 0:
               print ("Cost after epoch %i: %f" % (epoch, epoch_cost))
           if print_cost == True and epoch % 5 == 0:
               costs.append(epoch_cost)       # plot the cost
       plt.plot(np.squeeze(costs))
       plt.ylabel('cost')
       plt.xlabel('iterations (per tens)')
       plt.title("Learning rate =" + str(learning_rate))
       plt.show()       # lets save the parameters in a variable
       parameters = sess.run(parameters)
       print ("Parameters have been trained!")       # Calculate the correct predictions
       correct_prediction = tf.equal(tf.argmax(Z3), tf.argmax(Y))       # Calculate accuracy on the test set
       accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))       print ("Train Accuracy:", accuracy.eval({X: X_train, Y: Y_train}))
       print ("Test Accuracy:", accuracy.eval({X: X_test, Y: Y_test}))       return parameters

运行下面的代码来训练您的模型!在我们的机器上大约需要5分钟。

parameters = model(X_train, Y_train, X_test, Y_test)

令人惊讶的是,您的算法可以识别代表0到5之间的数字的手势,精确度为71.7%。

总结

  • 您的模型看起来足够大,足以适应训练集。但是,考虑到训练和测试之间的精度差异,您可以尝试添加L2或dropout正则化来减少过拟合。
  • 将会话视为一组代码来训练模型。每次在小批次上运行会话时,都会训练参数。总的来说,您已经运行了很多次(1500个epoch)的会话,直到您获得训练好的参数。

2.7 - 使用自己的图片进行测试

祝贺您完成这项任务。现在可以拍摄您的手势,并查看模型的输出:

import scipy
from PIL import Image
from scipy import ndimage## START CODE HERE ## (PUT YOUR IMAGE NAME)
my_image = "thumbs_up.jpg"
## END CODE HERE ### We preprocess your image to fit your algorithm.
fname = "images/" + my_image
image = np.array(ndimage.imread(fname, flatten=False))
my_image = scipy.misc.imresize(image, size=(64,64)).reshape((1, 64*64*3)).T
my_image_prediction = predict(my_image, parameters)plt.imshow(image)
print("Your algorithm predicts: y = " + str(np.squeeze(my_image_prediction)))

Your algorithm predicts: y = 3

尽管您可以看到算法似乎对其进行了错误分类,但您还是值得表扬。原因在于训练集不包含任何“竖起大拇指”手势,所以模型不知道如何处理它!我们称之为“不匹配的数据分布”,它是下一门课程“构建机器学习项目”将会研究的内容。

您应该记住的是:

  • Tensorflow是用于深度学习的编程框架
  • Tensorflow中的两个主要对象类是张量和操作符。
  • 在tensorflow中编码时,您必须采取以下步骤:
    • 创建一个包含张量(变量,占位符…)和操作(tf.matmul,tf.add,…)的图
    • 创建一个会话
    • 初始化会话
    • 运行会话以执行图
  • 您可以像在model()中看到的那样多次执行图
  • 在“优化器”对象上运行会话时,会自动完成反向传播和优化。

原文发布于微信公众号 - 云水木石(ourpoeticlife)

原文发表时间:2018-06-05

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

扫码关注云+社区

领取腾讯云代金券