本文介绍了最新版的Tensorflow 1.7的功能及其使用方法,重点介绍其中最有趣的功能之一eager_execution,它许用户在不创建静态图的情况下运行tensorflow代码。本文给出了使用eager_execution的步骤及一些注意事项,并不涉及理论知识,如果您已经对Tensorflow有所了解,那么可以阅读以下本文,它能指导您使用这个有趣的功能:
最有趣的功能之一是eager_execution,允许用户在不创建图形的情况下运行tensorflow代码。 让我们尝试一个简单的程序:
注意输出是一个张量而不是实际的数组本身。为了得到数组值,你需要在session中运行它。正如您所知道的,创建大型神经网络时,您无法使用打印查看操作的输出,从而增加了调试的复杂性。要检查操作的输出,您需要运行session并检查session内的输出:
现在让我们换种方式再试一次:
现在通过使用tf.enable_eager_execution()可以获得实际值。在eager_execution中,操作的输出将是实际值而不是张量。但tf.enable_eager_execution的使用并不那么简单。 看看下一个例子。 下面是一段变量声明:
所以声明一个Tensorflow变量会引发一个错误,应该使用tf.contrib.eager.Variable。 这意味着我们不能在已有程序中使用Eager execution,并希望它能够工作。为了使用eager实现功能,您需要更改您的代码。其中一个变化是,您可以使用tensorflow数据API来代替使用占位符和变量将数据提供给模型。 这通常更快,更易于管理。 以下是一个函数,它可根据平整化的图像,标签和批量大小(flattened images, labels and batch_size)来生成数据集。
现在让我们试试这个函数。 我们得到下面的结果。 我们可以使用迭代器访问数据集中的数据来进行批处理。
我们使用GradientTape记录所有操作以便稍后应用于梯度更新。
grad()函数返回关于权重和偏差的损失的导数。然后将此传递给optimizer.apply_gradients()完成梯度下降的过程。除了上述变化外,几乎所有东西都保持不变。 在使用eager execution之前,以下是一些关键点: