深度学习(2)——tensorflow可视化TensorFlow变量作用域TensorFlow可视化示例

前言:主要介绍一下,TensorFlow变量作用域和可视化,变量作用域能更好底可视化展示数据流图

TensorFlow变量作用域

通过tf.Variable我们可以创建变量,但是当模型复杂的时候,需要构建大量的变 量集,这样会导致我们对于变量管理的复杂性,而且没法共享变量(存在多个相 似的变量)。针对这个问题,可以通过TensorFlow提供的变量作用域机制来解决, 在构建一个图的时候,就可以非常容易的使用共享命名过的变量。 变量作用域机制在TensorFlow中主要通过两部分组成: tf.get_variable:通过所给定的名字创建或者返回一个对应的变量 tf.variable_scope:为通过创建的变量或者操作Operation指定命名空间. 例子如下: 1正常情况下构建多个变量

# # 方式一
# def my_func(x):
#     w1 = tf.Variable(tf.random_normal([1]))[0]
#     b1 = tf.Variable(tf.random_normal([1]))[0]
#     r1 = w1 * x + b1
#
#     w2 = tf.Variable(tf.random_normal([1]))[0]
#     b2 = tf.Variable(tf.random_normal([1]))[0]
#     r2 = w2 * r1 + b2
#
#     return r1, w1, b1, r2, w2, b2
#
#
# # 下面两行代码还是属于图的构建
# x = tf.constant(3, dtype=tf.float32)
# r = my_func(x)
#
# with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
#     # 初始化
#     tf.global_variables_initializer().run()
#     # 执行结果
#     print(sess.run(r))

2变量作用域下定义多个变量

# 方式二
def my_func(x):
    # initializer:初始化器
    # w = tf.Variable(tf.random_normal([1]), name='w')[0]
    # b = tf.Variable(tf.random_normal([1]), name='b')[0]
    w = tf.get_variable(name='w', shape=[1], initializer=tf.random_normal_initializer())[0]
    b = tf.get_variable(name='b', shape=[1], initializer=tf.random_normal_initializer())[0]
    r = w * x + b

    return r, w, b


def func(x):
    with tf.variable_scope('op1', reuse=tf.AUTO_REUSE):
        r1 = my_func(x)
    with tf.variable_scope('op2', reuse=tf.AUTO_REUSE):
        r2 = my_func(r1[0])
    return r1, r2


# 下面两行代码还是属于图的构建
x1 = tf.constant(3, dtype=tf.float32, name='x1')
x2 = tf.constant(4, dtype=tf.float32, name='x2')
with tf.variable_scope('func1'):
    r1 = func(x1)
with tf.variable_scope('func2'):
    r2 = func(x2)

with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
    # 初始化
    tf.global_variables_initializer().run()
    # 执行结果
    print(sess.run([r1, r2]))

TensorFlow可视化

TensorFlow提供了一套可视化工具:TensorBoard,在通过pip安装TensorFlow的情况 下,默认也会安装TensorBoard。通过TensorBoard可以展示TensorFlow的图像、绘制 图像生成的定量指标以及附加数据等信息。可视化的界面如下:

1 生成时间文件 TensorBoard通过读取TensorFlow的事件文件来运行,TensorFlow的事件文件 包括了在TensorFlow运行中涉及到的主要数据,比如:scalar、image、audio、 histogram和graph等。 通过tf.summary相关API,将数据添加summary中,然后在Session中执行这些 操作得到一个序列化Summary protobuf对象,然后使用FileWriter对象将汇总 的序列数据写入到磁盘,然后使用tensorboard命令进行图标展示。 2.在命令行窗口中输入:C:\anaconda\Scripts>tensorboard --logdir C:\result 路径为事件文件存放路径 3.默认访问端 口是:6006

示例

就举一个累计乘法的例子: 代码如下:

sum = tf.Variable(1,dtype=tf.int32)
i = tf.placeholder(dtype=tf.int32)
tmp_sum=sum*i
assign_op=tf.assign(sum,tmp_sum)
with tf.control_dependencies([assign_op]):
    # 如果需要执行这个代码块中的内容,必须先执行control_dependencies中给定的操作/tensor
    sum = tf.Print(sum, data=[sum, sum.read_value()], message='sum:')
x_inint_op=tf.global_variables_initializer()
tf.summary.scalar("sum",sum)
tf.summary.scalar("i",i)

with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
    # merge all summary
    merged_summary = tf.summary.merge_all()
    # 得到输出到文件的对象
    writer = tf.summary.FileWriter('./result', sess.graph)
    sess.run(x_inint_op)
    for j in range(1,6):
        # sess.run(assign_op,feed_dict={i:j})
        summary,r_x = sess.run([merged_summary,sum],feed_dict={i:j})
        writer.add_summary(summary, j)
    print(r_x)

可视化运行结果如下:

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

扫码关注云+社区