腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
从
特定
的
层
获取
输出
张量
?
、
我想弄清楚是否有可能使用tensorflow lite for android环境
从
特定
的
层
获得
输出
。目前我知道使用:'interpreter.run()‘我们接受“标准”
输出
,但这不是我想要
的
。谢谢你
的
建议。
浏览 19
提问于2020-05-27
得票数 2
1
回答
具有遮罩功能
的
Keras平均图层
、
、
、
Keras附带
的
平均
层
已经支持掩码,然而,查看平均
层
的
源代码,我不清楚
如何
以及是否应用掩码。 我有一个输入列表,每个输入都有自己
的
掩码(例如,来自嵌入
层
)。我想要
的
平均图层应该取那些未被屏蔽
的
输入
的
平均值。换句话说,如果一个输入被屏蔽了,它在计算
的
平均值中不应该有任何发言权。如果所有输入都被屏蔽,那么
输出
就会被屏蔽并传递到下一
层
。一个相关
的
问题是
浏览 2
提问于2019-10-21
得票数 1
1
回答
从
冻结
层
获取
输出
张量
、
、
、
我目前冻结了前70个
层
,并且只在最后10个
层
上进行训练。由于我
的
数据集
的
大小,每个时期需要45分钟来训练。如果有办法,我想在整个网络上训练1个时期,获得最后一个冻结
层
的
输出
张量
,并将其输入到训练
层
中,以确定需要多少个时期。 我希望这将减少训练网络所需
的
时间,因为恒定
的
层
基本上是被跳过
的
。以下是我遵循
的
教程:
浏览 2
提问于2020-05-20
得票数 1
2
回答
在keras或Tensorflow中
的
LSTM
层
之前添加密集
层
?
、
、
、
、
我正在尝试实现一个带有LSTM
层
的
去噪自动编码器。架构紧随其后。model.fit(trainX, trainY, nb_epoch=100, batch_size=batch_size, verbose=2) 我
的
浏览 5
提问于2017-03-10
得票数 5
回答已采纳
1
回答
Keras,预期为3,但得到了形状为[]
的
数组
、
、
、
我试图
从
带注释
的
文本中找出与单词相关
的
标签。我正在使用bidirectional LSTM。我有X_train,它
的
形状是(1676,39)和Y_train,形状相同
的
(1676,39)。我无法找到
如何
为Keras模型提供合适
的
维数。
浏览 0
提问于2018-09-21
得票数 0
1
回答
model.summary中连接到
的
层
的
"[0][0]“是什么意思?
、
如下表所示,[0][0] of input_1[0][0]是什么意思?Layer (type) Output Shape Param # Connected to input_1 (InputLayer) (None, 1) 0 _________
浏览 2
提问于2018-12-27
得票数 10
回答已采纳
1
回答
为什么会出现这样
的
错误-- "input_2_1:0既被喂食又被取“?
、
、
、
、
我试图显示网络中中间层
的
输出
,并使用以下代码:layer_outputs = [layer.output for layer in w_extraction.layers我
的
完整代码在这里:from
浏览 4
提问于2019-03-26
得票数 1
回答已采纳
1
回答
在Tensorflow中处理tf.nn.dynamic_rnn
的
输出
、
、
我正在向tf.nn.dynamic_rnn函数传递一个3
层
的
LSTM .我想以一种
特定
的
方式处理来自dynamic_rnn函数
的
输出
:也就是说,我想让dynamic_rnn
输出
流到一个完全连接
的
层
。dynamic_rnn
输出
为3阶
张量
,形状为[batch_size, sequence_length, hidden_dim].我过去常常将output[:, -1] (其形状为[batch_size,
浏览 5
提问于2017-09-11
得票数 1
回答已采纳
2
回答
当只是传递网络
的
输入和
输出
时,keras函数API模型
如何
知道
层
?
、
、
我是Keras
的
新手,我正在研究函数式api模型结构。2-还有,layers.output或layers.input
的
输出
是什么。
输出
不是一个简单<em
浏览 3
提问于2020-08-30
得票数 3
1
回答
在ROI池
层
,输入图像中
的
ROI
如何
与特征提取器
的
输出
相对应
、
、
据我所知,ROIs是由原始输入图像上
的
每个区域(x1、y1、x2、y2)表示
的
。ROI池
层
从
特征提取器
的
输出
中
获取
输入,这些部分对应于原始输入图像
的
ROIs。这就是我发现
的
,对于输入列表中
的
每个感兴趣区域,它接受与其对应
的
输入功能映射
的
一部分,并将其缩放到某种预定义
的
大小。而在这里 -- ROI池
层
,本质上是通过( a)
获取</
浏览 3
提问于2022-05-26
得票数 0
1
回答
Keras
层
输出
与输入
的
差异
、
、
、
我不明白输入
层
的
输出
如何
作为新模型
的
输入。
浏览 0
提问于2019-06-06
得票数 1
回答已采纳
1
回答
角点中
的
get_source_inputs函数
、
、
、
get_source_inputs()函数在keras中
的
用途是什么。我在文档中没有看到有关这方面的任何信息。
浏览 3
提问于2017-09-21
得票数 2
回答已采纳
1
回答
通过线性
层
的
PyTorch高维
张量
我在PyTorch中有一个大小
的
张量
(32,128,50)。这些是50个字嵌入,批处理大小为32.也就是说,我大小中
的
三个索引对应于批数、最大序列长度(带有“pad”令牌)和每个嵌入
的
大小。现在,我想通过一个线性
层
来获得一个大小(32,128,1)
的
输出
。也就是说,对于每一个嵌入在每个序列中
的
单词,我想把它变成一维
的
。我试着在我
的
网络中添加一个线性
层
,
从
50到1维,
输出</
浏览 12
提问于2022-02-17
得票数 0
回答已采纳
5
回答
如何
在Keras中向report_tensor_allocations_upon_oom添加RunOptions
、
、
、
我试图使用Keras在GPU上训练一个神经网络,并得到一个“资源耗尽:分配
张量
时
的
OOM”错误。它试图分配
的
特定
张量
不是很大,所以我假设以前
的
张量
消耗了几乎所有的VRAM。错误消息附带了一个提示,提示如下: 提示:如果您希望在OOM发生时看到分配
的
张量
列表,请将report_tensor_allocations_upon_oom添加到RunOptions中以
获取
当前分配信息RunOptions似乎是一个Tensor
浏览 2
提问于2018-04-05
得票数 28
回答已采纳
1
回答
如何
在keras.backend和keras.layers之间进行选择?
、
、
、
、
我发现在keras.backend或keras.layers中有许多相同
的
名称,例如keras.backend.concatenate和keras.layers.Concatenate。我模糊地知道,一个是
张量
,另一个是
层
。但是当代码这么大
的
时候,这么多
的
函数让我混淆了
张量
或者
层
。有人有解决这个问题
的
好主意吗?我发现
的
一种方法是首先在一个函数中定义所有占位符,但函数将其作为变量在结束时返回
层
,而另一个函数以该
浏览 0
提问于2018-12-20
得票数 0
回答已采纳
1
回答
如何
在tensorflow中
张量
的
某些指标处插入某些值?
、
、
、
、
假设我有一个
张量
input
的
形状100x1,另一个
张量
inplace
的
形状20x1和一个index_tensor
的
形状100x1。index_tensor表示要插入来自inplace
的
值
的
input位置。index_tensor只有20个True值,其余值为False。我试着解释下面想要
的
操作。
如何
使用tensorflow实现这一操作。 assign操作仅适用于tf.Variable,而我希望将其应用于tf.nn.rnn
的</
浏览 1
提问于2019-06-18
得票数 6
回答已采纳
1
回答
sess.run(
层
)返回什么?
、
我试着四处寻找,但奇怪
的
是,我找不到类似的东西。假设我有几个完全连接
的
层
:fc_2 = tf.contrib.layers.fully_connected(fc_1, 10)当我用sess.run(...)运行这些数据时,我会得到一个
张量
。这个
张量
是什么?是重量吗?梯度?对于我们给出
的
浏览 4
提问于2018-04-13
得票数 0
回答已采纳
1
回答
运行时错误: mat1和mat2形状不能在pytorch中相乘
、
、
、
我刚开始深入学习,我用下面的代码创建了一个用于预测植物病害
的
模型 def __init__(self):model = CNN_Model() out 当我试图运行上面的代码时,我得到
的
错误我已经尝试了类似的问题
的
答案,但我
的
问题仍然没有解决。
浏览 6
提问于2021-10-30
得票数 3
1
回答
张量
网络与神经网络
、
、
、
和常规之间有什么不同,
张量
的
性质是
从
哪里开始
的
?毕竟,矩阵是秩2
张量
。对于我这个门外汉来说,这两个看起来是一样
的
:输入
层
,隐藏
层
,
输出
层
:
张量
网络似乎是更大
的
东西,因为它也出现在中。
浏览 3
提问于2016-12-15
得票数 1
1
回答
如何
从下面的架构中提取瓶颈
层
?
、
、
、
经过训练,我想从这个模型
的
瓶颈
层
得到
输出
张量
,所以我尝试建立一个提取
层
的
模型,并使用这个模型进行预测。
浏览 3
提问于2022-03-21
得票数 -3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何从FACEBOOK获取同行的询盘?
从3/4层拓展到56层,如何训练超级深层的图卷积神经网络?
深度学习入门实践——Keras手写识别
Linux是如何将硬盘展示给用户的,从物理设备到通用块层
CapsNet入门系列之四:胶囊网络架构
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券