在TensorFlow中,最常用的可视化方法有三种途径,分别为TensorFlow与OpenCv的混合编程、利用Matpltlib进行可视化、利用TensorFlow自带的可视化工具TensorBoard进行可视化。
tensorboard 作为一款可视化神器,可以说是学习tensorflow时模型训练以及参数可视化的法宝。
而在训练过程中,主要用到了tf.summary()的各类方法,能够保存训练过程以及参数分布图并在tensorboard显示。
tf.summary有诸多函数:
用来显示标量信息,其格式为:
tf.summary.scalar(name, tensor, collections=None, family=None)
函数说明:
虽然,上面的四种解释可能比较正规,但是我感觉理解起来不太好,所以,我将tf.summary.scalar()函数的功能理解为:[1]将【计算图】中的【标量数据】写入TensorFlow中的【日志文件】,以便为将来tensorboard的可视化做准备
参数说明:
[GraphKeys.SUMMARIES]
例如:tf.summary.scalar(‘mean’, mean)
主要用途:一般在画loss曲线和accuary曲线时会用到这个函数。
tf.summary.histogram(name , values, collections=None, name=None)
函数说明:
虽然,上面的两种解释可能比较正规,但是我感觉理解起来不太好,所以,我将tf.summary.histogram()函数的功能理解为: [1]将【计算图】中的【数据的分布/数据直方图】写入TensorFlow中的【日志文件】,以便为将来tensorboard的可视化做准备
参数说明:
例如: tf.summary.histogram(‘histogram’, var)
主要用途:一般用来显示训练过程中变量的分布情况
分布图,一般用于显示weights分布
可以将文本类型的数据转换为tensor写入summary中:
例如:
text = """/a/b/c\\_d/f\\_g\\_h\\_2017"""
summary_op0 = tf.summary.text('text', tf.convert_to_tensor(text))
tf.summary.image(name, tensor, max_images=3, collections=None, name=Non
函数说明:
tensor
is interpreted as Grayscale,如果为1,那么这个张量被解释为灰度图像tensor
is interpreted as RGB,如果为3,那么这个张量被解释为RGB彩色图像tensor
is interpreted as Grayscale,如果为4,那么这个张量被解释为RGBA四通道图像虽然,上面的三种解释可能比较正规,但是我感觉理解起来不太好,所以,我将tf.summary.image()函数的功能理解为:[1]将【计算图】中的【图像数据】写入TensorFlow中的【日志文件】,以便为将来tensorboard的可视化做准备
参数说明:
主要用途:一般用在神经网络中图像的可视化
展示训练过程中记录的音频
merge_all 可以将所有summary全部保存到磁盘,以便tensorboard显示。如果没有特殊要求,一般用这一句就可一显示训练时的各种信息了。
tf.summaries.merge_all(key=_ops.GraphKeys.SUMMARIES, scope=None)
函数说明:
参数说明:
指定一个文件用来保存图。
tf.summary.FileWritter(path,sess.graph)
可以调用其add_summary()方法将训练过程数据保存在filewriter指定的文件中
Tensorflow Summary 用法示例:
tf.summary.scalar('accuracy',acc)#生成准确率标量图
merge_summary = tf.summary.merge_all()
#定义一个写入summary的目标文件,dir为写入文件地址 (交叉熵、优化器等定义)
train_writer = tf.summary.FileWriter(dir,sess.graph)
#训练循环
for step in range(training_step):
#调用sess.run运行图,生成一步的训练过程数据
train_summary = sess.run(merge_summary,feed_dict = {...})
#调用train_writer的add_summary方法将训练过程以及训练步数保存
train_writer.add_summary(train_summary,step)
此时开启tensorborad:
便能看见accuracy曲线了。
另外,如果我不想保存所有定义的summary信息,也可以用tf.summary.merge方法有选择性地保存信息:
tf.summary.merge(inputs, collections=None, name=None)
一般选择要保存的信息还需要用到tf.get_collection()函数
示例:
#生成准确率标量图
tf.summary.scalar('accuracy',acc)
merge_summary = tf.summary.merge([tf.get_collection(tf.GraphKeys.SUMMARIES,'accuracy'),...(其他要显示的信息)])
#定义一个写入summary的目标文件,dir为写入文件地址 (交叉熵、优化器等定义)
train_writer = tf.summary.FileWriter(dir,sess.graph)
#训练循环
for step in range(training_step):
#调用sess.run运行图,生成一步的训练过程数据
train_summary = sess.run(merge_summary,feed_dict = {...})
#调用train_writer的add_summary方法将训练过程以及训练步数保存
train_writer.add_summary(train_summary,step)
使用tf.get_collection函数筛选图中summary信息中的accuracy信息,这里的
tf.GraphKeys.SUMMARIES 是summary在collection中的标志。
当然,也可以直接:
#生成准确率标量图
acc_summary = tf.summary.scalar('accuracy',acc)
merge_summary = tf.summary.merge([acc_summary ,...(其他要显示的信息)]) #这里的[]不可省
如果要在tensorboard中画多个数据图,需定义多个tf.summary.FileWriter并重复上述过程。
参考:https://blog.csdn.net/lx_ros/article/details/78830023 http://www.cnblogs.com/lyc-seu/p/8647792.html https://www.2cto.com/kf/201805/746214.html