深度学习(1)——tensorflow简介什么是TensorFlow?什么是数据流图?安装基本概念示例变量的更新操作

前言:主要介绍TensorFlow的基础知识,深度学习的基本知识将在后面进行一一介绍

什么是TensorFlow?

可以拿python最经典的计算包numpy来进行比较,和numpy类似,用于数据计算,常用于开发深度学习框架。为了更好理解它,从以下几个方面介绍: 1.TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。 2.从命名来理解:Tensor(张量)意味着N维数组,Flow(流)意味 着基于数据流图的计算。Tensorflow运行过程就是张量从图的一端流动到另一端 的计算过程。 3.:TensorFlow的开发过程中,重点在于构建执行流图。也就是:“Data Flow Graphs”,表示TensorFlow是一种基于图的计算框架,其中节点(Nodes)在图中表示数学操作,线(Edges)则表 示在节点间相互联系的多维数据数组,即张量(Tensor),这种基于流的架构让 TensorFlow具有非常高的灵活性。

什么是数据流图?

官网给出的一个示例,截图如下:

网址:点我 里面提供了四种分类问题,然后可以自己添加特征(Features)和隐藏层,直接在浏览器运行

安装

本人显卡不是英伟达,只能安装cpu版本:命令:pip install tensorflow==1.4.0

基本概念

1 图(Graph):图描述了计算的过程,TensorFlow使用图来表示计算任务。 2 张量(Tensor):TensorFlow使用tensor表示数据。每个Tensor是一个类型化 的多维数组。 3 操作(op):图中的节点被称为op(opearation的缩写),一个op获得0个或 多个Tensor,执行计算,产生 0个或多个Tensor。 4 会话(Session):图必须在称之为“会话”的上下文中执行。会话将图的op分 发到诸如CPU或GPU之类的设备上执行。 5 变量(Variable):运行过程中可以被改变,用于维护状态。 6 feed和fetch:可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据。相当于一些铲子,可以操作数据。 7 : 实线边表示数据依赖,代表数据,即张量。任意维度的数据统称为张量。在机器 学习算法中,张量在数据流图中从前往后流动一遍就完成一次前向传播,而残差 从后向前流动一遍就完成一次反向传播。 虚线边表示控制依赖,可以用于控制操作的运行,这被用来确保happens——before关系,这类边上没有数据流过,但源节点必须在目的节点开始执行前完成。 8 程序结构: TensorFlow的程序一般分为两个阶段:构建阶段和执行阶段; 构建阶段:op的执行步骤被描述称为一个图,然后使用TensorFlow提供的API 构建这个图。 执行阶段:将构建好的执行图(Operation Graph)在给定的会话中执行,并得到 执行结果。

示例

1 创建一个三个节点的图,a+b=c,也就是,两个constant op和一个matmul op

如下:

2创 建一个Session对象,并输出结果

with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess2:
    print("value:{}".format(sess2.run(fetches=[p,r])))

结果是: value:[array([[19, 22], [43, 50]]), array([[ 6, 8], [10, 12]])] Session的构造主要有三个参 数,作用如下: target:给定连接的url,只有当分布式运行的时候需要给定; graph:给定当前Session对应的图,默认为TensorFlow中的默认图; config:给定当前Session的相关参数,参数详见: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/core/protobuf/config.proto中的[ConfigProto] 3 创建TensorFlow变量 注意,变量一定要进行全局变量出初始化

w1 = tf.Variable(tf.random_normal(shape=[10], stddev=0.5, seed=28, dtype=tf.float32), name='w1')
k = tf.constant(value=2.0, dtype=tf.float32)
w2 = tf.Variable(w1.initialized_value() * k, name='w2')
inint_op = tf.global_variables_initializer()
print(inint_op)
with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess:
    sess.run(inint_op)
    print("value{}".format(sess.run(w2)))

4.TensorFlow Fetch和 Feed 为了取回操作的输出内容,可以在使用Session对象的run方法调用执行图的时 候,传入一些tensor,通过run方法就可以获取这些tensor对应的结果值。 如果需要获取多个tensor的值,那么尽量一次运行就获取所有的结果值,而不是 采用逐个获取的方式。 feed Tensorflow还提供了填充机制(feed),可以在构建图时使用placeholder类型的 API临时替代任意操作的张量(占位符),在调用Session对象的run()方法去执行图 时,使用填充数据作为调用的参数,调用结束后,填充数据就消失了。 feed使用一个tensor值临时替换一个操作的输出结果,在获取数据的时候必须 给定对应的feed数据作为参数。feed只有在调用它的方法内有效,方法结束, feed就消失了。 feed可以使用placeholder类型的API创建占位符,常见API:tf.placeholder、 tf.placeholder_with_default

给定占位符placeholder
# 构建一个矩阵的乘法,但是矩阵在运行的时候给定
m1 = tf.placeholder(dtype=tf.float32, shape=[2, 3], name='placeholder_1')
m2 = tf.placeholder(dtype=tf.float32, shape=[3, 2], name='placeholder_2')
m3 = tf.matmul(m1, m2)

with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
    print("result:\n{}".format(
        sess.run(fetches=m3, feed_dict={m1: [[1, 2, 3], [4, 5, 6]], m2: [[9, 8], [7, 6], [5, 4]]})))
    print("result:\n{}".format(m3.eval(feed_dict={m1: [[1, 2, 3], [4, 5, 6]], m2: [[9, 8], [7, 6], [5, 4]]})))

结果: result: [[ 38. 32.] [101. 86.]] result: [[ 38. 32.] [101. 86.]]

变量的更新操作

例如实现累加操作需要用到变量更新api:tf.assign(ref=x, value=x + 1) 下面代码是实现阶乘的例子,用了两种方法,第一种是直接run更新操作,第二种用到控制依赖

#3实现阶乘
# s = tf.Variable(1,dtype=tf.int32)
# i = tf.placeholder(dtype=tf.int32)
# su=s*i
# assign_op=tf.assign(s,su)
# x_inint_op=tf.global_variables_initializer()
# with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
#     sess.run(x_inint_op)
#     for j in range(1,6):
#         sess.run(assign_op,feed_dict={i:j})
#         r_x = sess.run(s)
#     print(r_x)

#正常的做法  通过control_dependencies可以指定依赖关系,这样的话,就不用管内部的更新操作了,更加方便
#控制依赖
sum = tf.Variable(1,dtype=tf.int32)
i = tf.placeholder(dtype=tf.int32)
tmp_sum=sum*i
assign_op=tf.assign(sum,tmp_sum)
with tf.control_dependencies([assign_op]):
    # 如果需要执行这个代码块中的内容,必须先执行control_dependencies中给定的操作/tensor
    sum = tf.Print(sum, data=[sum, sum.read_value()], message='sum:')
x_inint_op=tf.global_variables_initializer()
with tf.Session(config=tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)) as sess:
    sess.run(x_inint_op)
    for j in range(1,6):
        # sess.run(assign_op,feed_dict={i:j})
        r_x = sess.run(sum,feed_dict={i:j})
    print(r_x)

结果: 120

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏小樱的经验随笔

算法--枚举策略

枚举法的基本思想 枚举法的基本思想是根据提出的问题枚举所有可能状态,并用问题给定的条件检验哪些是需要的,哪些是不需要的。能使命题成立,即为其解。 枚举结构:循环...

4709
来自专栏一心无二用,本人只专注于基础图像算法的实现与优化。

SSE图像算法优化系列一:一段BGR2Y的SIMD代码解析。

     一个同事在github上淘到一个基于SIMD的RGB转Y(彩色转灰度或者转明度)的代码,我抽了点时间看了下,顺便学习了一些SIMD指令,这里把学习过程...

2068
来自专栏余林丰

8.动态规划(1)——字符串的编辑距离

  动态规划的算法题往往都是各大公司笔试题的常客。在不少算法类的微信公众号中,关于“动态规划”的文章屡见不鲜,都在试图用最浅显易懂的文字来描述讲解动态规划,甚至...

4119
来自专栏欢乐玩转技术

Leetcode 137. 只出现一次的数字 II - 题解

https://leetcode.com/problems/single-number-ii/

1414
来自专栏数据处理

mat(矩阵)与array(数组)区别

1403
来自专栏ACM算法日常

确定比赛名次(拓扑排序) - HDU 1285

这次先讲理论,因为拓扑排序在日常工作中用的并不多,甚至于很多人可能忘了计算机中存在这样一种排序。我大概的整理一下拓扑排序的定义和应用,以便看了这...

712
来自专栏Bingo的深度学习杂货店

Q101 Symmetric Tree

Given a binary tree, check whether it is a mirror of itself (ie, symmetric aroun...

3138
来自专栏数据结构与算法

UOJ#179. 线性规划(线性规划)

有 nn 个实数变量 x1,x2,…,xnx1,x2,…,xn 和 mm 条约束,其中第 ii 条约束形如 ∑nj=1aijxj≤bi∑j=1naijxj≤bi...

683
来自专栏ACM算法日常

基础算法系列之排序算法-2.冒泡排序

上篇文章给大家讲述了二分查找算法,现在让我们来一起学习另一个基础算法——冒泡排序算法。它是一个排序算法,可以将一个无序的序列排成有序。它将会是我们以后...

593
来自专栏人工智能LeadAI

讨厌算法的程序员 1 | 插入排序

什么是算法 在说插入排序之前,我们了解下《算法导论》对算法的从两种不同角度的定义。 一般性解释: 算法是定义良好的计算过程,它取一个或一组值作为输入,并产生出一...

2777

扫码关注云+社区