腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
:
共享
可变
张量
、
为了调试的目的,我想在函数之间传递一个
可变
值。
共享
变量不工作,因为它们的赋值需要调用.eval()或sess.run(),而我使用tf.Print()深入我的过程和输出值。假设我想输出当前计算梯度的层数,所以我试着用
张量
来做:LevelCounter = tf.constant(5我应该怎么做才能在不破坏工作流的情况下在不同的函数之间
共享
可变
值?
浏览 4
提问于2017-07-29
得票数 0
回答已采纳
1
回答
使用
可变
输入
张量
列表的自定义
Tensorflow
操作
、
、
我试图在C++中编写一个定制的
Tensorflow
操作程序。此操作应以
张量
列表作为输入,并修改其内容。在其定义中,赋值操作还具有以下代码来检查第一个输入是否为
可变
张量
:errors::InvalidArgument("lhs input needs to be a ref type")); 与赋值操作相反,我的自定义操作应该包含一个
可变
张量
(而不是单
浏览 0
提问于2019-05-24
得票数 1
回答已采纳
1
回答
Tensorflow
--自定义操作- Pass参数作为
可变
对象(类似于引用传递)
、
、
、
我试图在
tensorflow
中开发一个自定义op,在此期间,我更改属于输入-
张量
的值,并且在op完成后,该值仍应反映这些更改。挑战是,python通过赋值传递函数参数(在本例中为==不
可变
类型),从而阻止我访问实际希望在op中访问的数据。。到目前为止我尝试过的: 我尝试使用标准python技巧,并将参数作为列表传递,因为
浏览 0
提问于2018-03-19
得票数 1
1
回答
TensorFlow
中基于布尔掩码的局部更新
张量
、
、
我想根据一些条件更新
张量
的一部分。这是我想在用
TensorFlow
编写的NumPy中复制的代码。
浏览 3
提问于2022-01-22
得票数 0
回答已采纳
1
回答
如何在Keras中进行分片赋值(使用
TensorFlow
作为后端)
、
因为它是在模型编译之前使用的,所以当我尝试使用函数assign() (这是一个
TensorFlow
函数)时,出现了错误:'Tensor‘对象没有'assign’属性。
浏览 6
提问于2019-04-11
得票数 0
1
回答
可以从
共享
内存创建
Tensorflow
变量吗?
、
、
., void* data,...)函数(来自
Tensorflow
C)通过让data指向
共享
内存来从
共享
内存中创建一个新的
张量
。如果我将这个
张量
传递给tf.Vaiable(),
Tensorflow
变量会将其数据存储在
共享
内存中并从其中读取吗?如果没有,是否有可能获得指向变量的底层数据缓冲区的指针?
浏览 3
提问于2016-07-11
得票数 1
回答已采纳
1
回答
TensorFlow
变量与
TensorFlow
张量
的实现差异
张量
本身并不在内存中保存或存储值,而是只提供一个接口来检索
张量
引用的值。 2.变量可以描述为存储
张量
的内存缓冲区的持久的、
可变
的句柄.因此,变量具有一定的形状和固定的类型。 准确地说,这些是我的问题: “内存缓冲区”的含义是
浏览 4
提问于2016-11-29
得票数 23
回答已采纳
1
回答
如何正确使用tf.scatter_update进行N维更新?
、
、
通常,它们将用于创建过滤传入
张量
的切片的掩码。import
tensorflow
as tf A = tf.random_uniform(shape=(64, 128, 128tf.scatter_update(mask, indices, updates) sess.run(scatter) 其结果
浏览 0
提问于2019-01-08
得票数 1
2
回答
如何在
Tensorflow
.js中变异
张量
的值?
、
、
、
如何在
Tensorflow
.js中变异
张量
的值?例如,如果我有一个
张量
创建如下:const a = tf.tensor1d([1,2,3,4])这样做:const a = tf.variable(tf.tensor1d([1,2,3,4]))似乎解决不了问题。
浏览 1
提问于2018-04-12
得票数 7
1
回答
在
Tensorflow
中,以_ref结尾类型的
张量
与不以_ref结尾的
张量
之间有什么区别?
医生说: 这到底是什么意思?什么是引用型
张量
,它们与标准
张量
有什么不同?
浏览 4
提问于2016-06-22
得票数 14
回答已采纳
1
回答
Tensorflow
-不同长度的喂食实例
、
我的每一个训练例子都是一个长度不同的列表。我正试图找到一种方法将这些例子输入到图表中。下面是我通过创建一个元素是未知维度占位符的列表来做到这一点的尝试。with graph2.as_default(): for i in np.arange(3): A_size = tf.shape(A)
浏览 1
提问于2016-07-13
得票数 2
1
回答
在IDE(Pycharm)中不可能监视
tensorflow
重量
张量
吗?
、
、
、
我试着学习各种方法来监控
tensorflow
重量
张量
。我知道我们可以通过Session.run()、tf.Print()、tf.py_func()和诸如tensorboard、tdb、tfdbg ()等工具来观察这些
可变
张量
。如果您成功使用IDE进行
张量
调试,请告诉我。谢谢!
浏览 3
提问于2017-03-25
得票数 1
回答已采纳
1
回答
张量
在
TensorFlow
中是如何不
可变
的?
、
我在
TensorFlow
文档中读了以下一句: “一次执行的背景”是什么意思?
浏览 1
提问于2018-10-18
得票数 4
回答已采纳
1
回答
tensorflow
中
张量
的修正
、
、
、
我在
tensorflow
中定义了一个无监督的问题,我需要用每次迭代来更新我的B和tfZ,但是我不知道如何使用
tensorflow
会话更新我的tfZ。tot_loss = sess.run(LOSS, feed_dict={tfY: Y})
张量
对象正确地没有赋值属性如何正确更新
张量
?
浏览 3
提问于2018-03-07
得票数 1
回答已采纳
1
回答
是
tensorflow
中占位符的scatter_update()吗?
、
、
我用
tensorflow
编写了一个去噪的自动编码器函数(这有点长,所以我不会发布整个代码),除了在批处理中添加掩蔽噪声之外,每件事情都运行良好。 掩蔽噪声只是将特征的随机比例取为0。tf.variable,那么如何通过tf.scatter_update()来修改矩阵的一个元素,但是当我尝试使用占位符时,它会引发一个错误:"TypeError:'ScatterUpdate‘Op需要输入'ref’是一个
可变
的
张量
浏览 2
提问于2017-06-28
得票数 2
回答已采纳
2
回答
非文本数据的参差
张量
作为LSTM的输入
、
、
、
、
我正在学习粗糙
张量
及其在粒子跟踪中的应用。我有以下最小的例子,它再现了我一直在经历的错误。import
tensorflow
as tffrom
tensorflow
.keras.models import Sequential data_n = 32window_length=8 splits = [n_set_mask_metadata
浏览 28
提问于2020-12-14
得票数 0
1
回答
如何将此np.add.at语句转换为
TensorFlow
?
、
、
np.add.at(img, (slice(None), z, y, x), cols_reshaped)cols_reshaped为2d
浏览 15
提问于2018-03-06
得票数 0
1
回答
Tensorflow
无法为动态批处理大小初始化tf.Variable
我尝试创建一个具有动态形状的tf.Variable。下面概述了问题所在。init_bias = tf.random_uniform(shape=[self.config.hidden_layer_size, tf.shape(self.question_inputs)[0]])init_bias = tf.Variable(init_bias)刚来的上下文(
浏览 0
提问于2016-10-14
得票数 7
回答已采纳
1
回答
Tensorflow
-保持稀疏的稀疏嵌入查找
、
、
、
我正在用CNN实现一个文本分类器,类似于使用
Tensorflow
的。
Tensorflow
提供了tf.nn.embedding_lookup_sparse,它允许您以稀疏
张量
的形式提供单词ID。这是很好的,特别是对于启用
可变
长度序列。但是,该函数在查找后需要一个“组合”步骤,例如“平均”或“和”。这迫使它回到致密
张量
空间。我不想做任何组合。这是因为
Tensorflow
的嵌入查找为pad值生成向量,并且它是试图用零掩蔽它的一个传说。
浏览 2
提问于2018-11-07
得票数 2
1
回答
如何在分布式
Tensorflow
中实现"DistBelief“架构
、
、
当前的分布式
Tensorflow
的体系结构是基于“类似参数服务器”的框架。使用tf.device(tf.train.replica_device_setter()),所有
张量
“变量”都被放在“参数服务器”("PS")上,而其他
张量
操作被分配给“工作者”。现在,如果我们不遵循规则,我们将采用"DistBelief“架构:所有
共享
参数(如神经网络权重)仍然放在"PS”上,但每个工作者现在都有存储在"PS“中的
共享
张量
”变量“的副本。好处是在训
浏览 0
提问于2017-10-07
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow入门教程(七)——控制流操作:条件和循环
跟随新手程序员了解Tensorflow.js
TensorFlow 小抄(一)
从框架优缺点说起,这是一份TensorFlow入门极简教程
TensorFlow 发布支持JavaScript语言的TensorFlow.js框架!
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券