腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Tensorflow
中
输入
占位
符
时
使用
哪些
值
?
、
在下面的代码
中
,有许多张量运算和计算。我想看看其中一些计算的结果,这样我就可以更好地理解它们。具体地说,我想看看在
使用
print(Session.Run(h))执行图形
时
h是什么样子。但是,计算依赖于
占位
符
X。因此,为了查看它们,我需要
使用
提要字典。 我已经通读了这个问题:How to feed a placeholder?和其他几个。我仍然不知道我应该在这个
占位
符
中
输入
什么。为了查看h的
值
,<em
浏览 13
提问于2020-04-26
得票数 2
1
回答
检查
tensorflow
占位
符
是否已填充
、
、
假设我
在
tensorflow
中有两个
占位
符
值
: placeholder_1和placeholder_2,本质上我想要以下计算功能:“如果定义了placeholder_1 (即在feed_dict ofsess.run()
中
给出一个
值
),则将X计算为f(placeholder_1),否则,将X计算为g(Placeholder_2)”。把X看作是神经网络
中
的一个隐藏层,可以用这两种不同的方法任意计算。最后,我将
使用
X生成一个输出,并希望根
浏览 6
提问于2017-04-03
得票数 3
回答已采纳
1
回答
在
TensorFlow
中将
占位
符
转换为常量
我正在用
TensorFlow
训练神经网络,以便在Java应用程序中
使用
。图是用freeze_graph.py写到pb文件
中
的。是否可以将
占位
符
转换为常量?
浏览 3
提问于2017-06-01
得票数 6
回答已采纳
2
回答
如何用TensorFlowInferenceInterface.java给布尔
占位
符
?
、
、
、
我正在尝试通过启动
在
图中受过训练的程序。inferenceInterface.fillNo
浏览 4
提问于2017-03-24
得票数 4
回答已采纳
1
回答
Tensorflow
梯度下降缺陷:权重不变,成本设置为1.0
、
、
、
、
第一件事是第一件事这是我的代码import numpy as npimport globprint(sess.run(prediction)) 我希望这是足够的信息,你能帮我解决我的
浏览 3
提问于2017-07-21
得票数 0
3
回答
偶尔将
值
赋值给变量(
占位
符
与feed_dict)
、
、
我有一个模型,在这个模型
中
,我需要为权重(可训练变量)分配新的外部
值
,每N次迭代。我可以想出几种解决方案: 不是很好,因为我需要序列化,通过文件系统调用,等等(即使我
使用
类似tmpfs之类的东西) 我将创建一个
占位
符
,并为每个可训练变量分配op但是,我理解这意味着我将被迫在每个feed_dict中考虑这些
占位
符
,并在每次运行图形
中
的任何操作
时</em
浏览 9
提问于2017-04-23
得票数 0
回答已采纳
3
回答
TensorFlow
无法为张量'Placeholder:0‘馈送形状(100,784)的
值
、
、
我正在学习
TensorFLow
。因此,为了理解如何制作一些东西,我尝试从源代码
中
复制一些代码并执行它。但我遇到了一个错误消息。所以我尝试了这个网站上的一些解决方案,但它不起作用(我
在
评论中保留了我的测试)。"""programme 1 """import numpy as np from
tensorflow
.examples.tutorials.mnist, 28, 28, 1)'
浏览 6
提问于2017-08-31
得票数 4
回答已采纳
1
回答
为可变大小和固定大小的
输入
创建
TensorFlow
占位
符
有什么缺点吗?
我想知道是否有任何实质性的缺点(例如,关于计算效率,内存.)在为可变大小的
输入
(相对于固定大小的
输入
)创建
TensorFlow
占位
符
时
?比方说,我正在进行小型批处理学习,并
使用
占位
符
初始化图形,
在
该
占位
符
中
,我预先假定了一个固定的batch_size: tf.placeholder(..., shape=[batch_size, ...或者,我可以初始化
占
浏览 4
提问于2017-03-02
得票数 9
回答已采纳
2
回答
当不构建模型
时
,
占位
符
和变量之间是否有区别?
、
、
我试图理解
TensorFlow
中
占位
符
和变量之间的区别:W = tf.Variable(rng.randn(), name="weight")当它们是模型的
输入
时,我理解它们的区别。 但是,总的来说,如果我们没有建立一个模型,那么tf.placeholder()和tf.Variable()之间还有什么区别吗?
浏览 3
提问于2016-12-23
得票数 13
回答已采纳
1
回答
零填充物没有正确地执行我想
、
、
、
、
我似乎
在
使用
提供的实现时遇到了一些问题。我的情况有点类似的家伙张贴,在其中,我试图映射和
输入
到一个输出。
输入
是音频文件的样本,输出是长度为14的特征向量(长度是静态的)。我不是
在
解决分类问题,而是一个回归问题,所以有点不同的任务。我的代码如下所示:from
tensorflow
.models.rnn import rnn_cell from
tensorflow
.models.rnn, 138915,
浏览 7
提问于2016-10-24
得票数 0
回答已采纳
2
回答
tensorflow
占位
符
-理解`shape=[无,‘
、
我
在
试着理解
tensorflow
的
占位
符
。具体而言,在下面的示例
中
,shape=[None,是什么意思。X = tf.placeholder(tf.float32, shape=[None, 128, 128, 3], name="X") 您可以将
TensorFlow
中
的
占位
符
看作是一个操作,该操作指定将
输入
到graph.placeholder X
中
的形状和数
浏览 0
提问于2018-07-16
得票数 16
1
回答
定义张量
时
的张量形状
、
、
、
我正在研究神经网络,很多时候shapes.....
Tensorflow
给我们提供了一个关键字None,这样我们就不必担心张量的大小了……用None代替形状的已知数值有什么缺点吗?
浏览 0
提问于2017-09-19
得票数 0
1
回答
为什么
在
使用
sess.run(
占位
符
,feed_dict)
时
返回
占位
符
的张量描述?
、
、
sess = tf.Session() 在上面的片段
中
,它打印张量描述的“成本=张量(”logistic_loss_6:0“,dtype=float32)",而不是成本的
值
。但是,如果我
使用
print我的问题是-
浏览 0
提问于2019-06-11
得票数 0
2
回答
为什么我们需要在
TensorFlow
中
使用
feed_dict传递
值
以打印损失
值
、
、
下面是小的
Tensorflow
代码 我的问题是,当我们运行sess.run(train, {x: x_train, y: y_train})
时
,loss也会被计算出来,那么当我们想要像下面这样检索损失
值
时
,为什么我们需要传递feed_di
浏览 0
提问于2018-07-19
得票数 1
1
回答
Tensorflow
:将
值
输入
到现有
占位
符
或将其删除
我正在实现一个自定义的keras回调,并且
在
同一模型上执行两个连续的训练阶段。
在
回调
中
,我创建了几个
占位
符
,以便在训练结束
时
为评估提供一些度量值。对于第一个训练阶段,这是很好的,因为
占位
符
不存在,然而,
在
第二个训练阶段,这将导致错误,因为
tensorflow
将创建第二组
占位
符
,但具有索引名称。因此,我正在寻找一种解决方案,要么将第一个训练阶段的
值
输入</
浏览 64
提问于2018-06-03
得票数 1
2
回答
什么时候需要
占位
符
?
、
我见过的每个
TensorFlow
示例都
使用
占位
符
将数据馈送到图形
中
。但是我的应用程序
在
没有
占位
符
的情况下工作得很好。根据的说法,
使用
占位
符
是“最佳实践”,但它们似乎会使代码变得不必要地复杂。
在
某些情况下,
占位
符
是绝对必要的吗?
浏览 2
提问于2017-07-10
得票数 0
1
回答
TensorFlow
: tf.placeholder和tf.Variable -为什么不需要维度?
、
我正在从以下示例中学习
TensorFlow
: 我在下面的代码中有几个问题:当定义诸如X、Y、W和b这样的
占位
符
和变量
时
,我们为什么不需要指定它们的维度?如果不知道这些
占位
符
/变量的大小,代码将如何分配内存?谢谢!
浏览 2
提问于2016-12-27
得票数 6
回答已采纳
1
回答
通过tf.data.Dataset将大型数值数组
输入
TensorFlow
估计器
、
、
、
、
TensorFlow
的tf.data.Dataset documentation on consuming numpy arrays指出,为了将Dataset数组与numpy API结合
使用
,这些数组必须足够小(总共小于2 GB )才能用作张量,或者可以通过
占位
符
将它们
输入
到数据集中。但是,如果您将Dataset与估计器(
占位
符
不可用)结合
使用
,则文档不会提供
使用
没有
占位
符
的大型数组的解决方案。是否
浏览 12
提问于2019-02-27
得票数 2
1
回答
奇怪的张量
、
、
当我打印一个张量,它显示了某种类型的操作名称,而不是它的
值
,这意味着什么?(K.sqrt(K.mean(K.square(grads))) + 1e-5)print(grads)根据文档,张量没有
值
,但意味着在给定的CPU或GPU会话
中
达到最终值。我如何列出张量
中
的所有操作,比如以顺序的方式,将我从其
输入
带到最终值? 例如:grads张量将是一个梯度函数和两个除法,用于计算最终值。
浏览 0
提问于2019-09-10
得票数 0
1
回答
获取
Tensorflow
占位
符
的形状
、
、
、
我正在尝试获取
Tensorflow
中
占位
符
的尺寸。函数tf$shape立即出现在我的脑海中。我毫不费力地
使用
tf$shape获得具有正维的
占位
符
的形状。但是,我希望
占位
符
能够接受不同大小的
输入
,所以我将一维保留为NULL。现在,根据我的理解,当谈到维度
时
,
Tensorflow
将NULL和-1等同对待。但是,当我运行我的代码
时
,我收到了以下错误: /co
浏览 1
提问于2017-08-16
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow基础入门
深度学习入门实战二:用TensorFlow训练线性回归
令人困惑的TensorFlow!
Tensorflow入门教程(四)——向Tensorflow提供数据
TensorflowSharp 简单使用与KNN识别MNIST流程
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券