首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习(1)——tensorflow简介什么是TensorFlow?什么是数据流图?安装基本概念示例变量的更新操作

深度学习(1)——tensorflow简介什么是TensorFlow?什么是数据流图?安装基本概念示例变量的更新操作

作者头像
DC童生
发布2018-06-20 17:28:09
3.6K0
发布2018-06-20 17:28:09
举报
文章被收录于专栏:机器学习原理机器学习原理

前言:主要介绍TensorFlow的基础知识,深度学习的基本知识将在后面进行一一介绍

什么是TensorFlow?

可以拿python最经典的计算包numpy来进行比较,和numpy类似,用于数据计算,常用于开发深度学习框架。为了更好理解它,从以下几个方面介绍: 1.TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。 2.从命名来理解:Tensor(张量)意味着N维数组,Flow(流)意味 着基于数据流图的计算。Tensorflow运行过程就是张量从图的一端流动到另一端 的计算过程。 3.:TensorFlow的开发过程中,重点在于构建执行流图。也就是:“Data Flow Graphs”,表示TensorFlow是一种基于图的计算框架,其中节点(Nodes)在图中表示数学操作,线(Edges)则表 示在节点间相互联系的多维数据数组,即张量(Tensor),这种基于流的架构让 TensorFlow具有非常高的灵活性。

什么是数据流图?

官网给出的一个示例,截图如下:

网址:点我 里面提供了四种分类问题,然后可以自己添加特征(Features)和隐藏层,直接在浏览器运行

安装

本人显卡不是英伟达,只能安装cpu版本:命令:pip install tensorflow==1.4.0

基本概念

1 图(Graph):图描述了计算的过程,TensorFlow使用图来表示计算任务。 2 张量(Tensor):TensorFlow使用tensor表示数据。每个Tensor是一个类型化 的多维数组。 3 操作(op):图中的节点被称为op(opearation的缩写),一个op获得0个或 多个Tensor,执行计算,产生 0个或多个Tensor。 4 会话(Session):图必须在称之为“会话”的上下文中执行。会话将图的op分 发到诸如CPU或GPU之类的设备上执行。 5 变量(Variable):运行过程中可以被改变,用于维护状态。 6 feed和fetch:可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据。相当于一些铲子,可以操作数据。 7 : 实线边表示数据依赖,代表数据,即张量。任意维度的数据统称为张量。在机器 学习算法中,张量在数据流图中从前往后流动一遍就完成一次前向传播,而残差 从后向前流动一遍就完成一次反向传播。 虚线边表示控制依赖,可以用于控制操作的运行,这被用来确保happens——before关系,这类边上没有数据流过,但源节点必须在目的节点开始执行前完成。 8 程序结构: TensorFlow的程序一般分为两个阶段:构建阶段和执行阶段; 构建阶段:op的执行步骤被描述称为一个图,然后使用TensorFlow提供的API 构建这个图。 执行阶段:将构建好的执行图(Operation Graph)在给定的会话中执行,并得到 执行结果。

示例

1 创建一个三个节点的图,a+b=c,也就是,两个constant op和一个matmul op

如下:

2创 建一个Session对象,并输出结果

with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess2:
    print("value:{}".format(sess2.run(fetches=[p,r])))

结果是: value:[array([[19, 22], [43, 50]]), array([[ 6, 8], [10, 12]])] Session的构造主要有三个参 数,作用如下: target:给定连接的url,只有当分布式运行的时候需要给定; graph:给定当前Session对应的图,默认为TensorFlow中的默认图; config:给定当前Session的相关参数,参数详见: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/core/protobuf/config.proto中的[ConfigProto] 3 创建TensorFlow变量 注意,变量一定要进行全局变量出初始化

w1 = tf.Variable(tf.random_normal(shape=[10], stddev=0.5, seed=28, dtype=tf.float32), name='w1')
k = tf.constant(value=2.0, dtype=tf.float32)
w2 = tf.Variable(w1.initialized_value() * k, name='w2')
inint_op = tf.global_variables_initializer()
print(inint_op)
with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess:
    sess.run(inint_op)
    print("value{}".format(sess.run(w2)))

4.TensorFlow Fetch和 Feed 为了取回操作的输出内容,可以在使用Session对象的run方法调用执行图的时 候,传入一些tensor,通过run方法就可以获取这些tensor对应的结果值。 如果需要获取多个tensor的值,那么尽量一次运行就获取所有的结果值,而不是 采用逐个获取的方式。 feed Tensorflow还提供了填充机制(feed),可以在构建图时使用placeholder类型的 API临时替代任意操作的张量(占位符),在调用Session对象的run()方法去执行图 时,使用填充数据作为调用的参数,调用结束后,填充数据就消失了。 feed使用一个tensor值临时替换一个操作的输出结果,在获取数据的时候必须 给定对应的feed数据作为参数。feed只有在调用它的方法内有效,方法结束, feed就消失了。 feed可以使用placeholder类型的API创建占位符,常见API:tf.placeholder、 tf.placeholder_with_default

给定占位符placeholder
# 构建一个矩阵的乘法,但是矩阵在运行的时候给定
m1 = tf.placeholder(dtype=tf.float32, shape=[2, 3], name='placeholder_1')
m2 = tf.placeholder(dtype=tf.float32, shape=[3, 2], name='placeholder_2')
m3 = tf.matmul(m1, m2)

with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
    print("result:\n{}".format(
        sess.run(fetches=m3, feed_dict={m1: [[1, 2, 3], [4, 5, 6]], m2: [[9, 8], [7, 6], [5, 4]]})))
    print("result:\n{}".format(m3.eval(feed_dict={m1: [[1, 2, 3], [4, 5, 6]], m2: [[9, 8], [7, 6], [5, 4]]})))

结果: result: [[ 38. 32.] [101. 86.]] result: [[ 38. 32.] [101. 86.]]

变量的更新操作

例如实现累加操作需要用到变量更新api:tf.assign(ref=x, value=x + 1) 下面代码是实现阶乘的例子,用了两种方法,第一种是直接run更新操作,第二种用到控制依赖

#3实现阶乘
# s = tf.Variable(1,dtype=tf.int32)
# i = tf.placeholder(dtype=tf.int32)
# su=s*i
# assign_op=tf.assign(s,su)
# x_inint_op=tf.global_variables_initializer()
# with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
#     sess.run(x_inint_op)
#     for j in range(1,6):
#         sess.run(assign_op,feed_dict={i:j})
#         r_x = sess.run(s)
#     print(r_x)

#正常的做法  通过control_dependencies可以指定依赖关系,这样的话,就不用管内部的更新操作了,更加方便
#控制依赖
sum = tf.Variable(1,dtype=tf.int32)
i = tf.placeholder(dtype=tf.int32)
tmp_sum=sum*i
assign_op=tf.assign(sum,tmp_sum)
with tf.control_dependencies([assign_op]):
    # 如果需要执行这个代码块中的内容,必须先执行control_dependencies中给定的操作/tensor
    sum = tf.Print(sum, data=[sum, sum.read_value()], message='sum:')
x_inint_op=tf.global_variables_initializer()
with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
    sess.run(x_inint_op)
    for j in range(1,6):
        # sess.run(assign_op,feed_dict={i:j})
        r_x = sess.run(sum,feed_dict={i:j})
    print(r_x)

结果: 120

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.05.11 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 什么是TensorFlow?
  • 什么是数据流图?
  • 安装
  • 基本概念
  • 示例
  • 变量的更新操作
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档