腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
Tensorflow
构建
RNN
。
如何
正确地
预处理
我
的
数据
集
以
匹配
RNN
的
输入
和
输出
形状
?
python
、
tensorflow
、
machine-learning
、
keras
、
recurrent-neural-network
我
正在做一个从音频中检测鼓声
的
项目。
我
目前已经对
我
的
训练
数据
进行了
预处理
,并尝试在
tensorflow
中组合一个SimpleRNN神经网络,但无法使两者协同工作。在每个时间步中,
我
的
输入
由
形状
(84)
的
一维张量组成,
输出
应该是
形状
(3)
的
张量。目前,
我
的
代码如下所示: tra
浏览 12
提问于2020-12-23
得票数 0
回答已采纳
1
回答
如何
在Keras中用不同长度
的
例子训练
RNN
?
python
、
numpy
、
tensorflow
、
keras
、
recurrent-neural-network
我
正在学习
RNN
,
我
正在
使用
TensorFlow
/Keras。
我
了解普通
RNN
和
LSTM层
的
基本知识,但我很难理解
如何
将模型与
数据
相
匹配
。
我
的
数据
集
包含几个不同大小
的
时间序列示例,例如:x2 = [3, 7] x3 = [5, 6, 8, 9,
浏览 5
提问于2021-08-31
得票数 0
回答已采纳
4
回答
Tensorflow
:
如何
将前一个时间步
的
输出
作为
输入
传递到下一个时间步
python
、
tensorflow
、
recurrent-neural-network
这是此问题
的
副本
我
希望在时间步长T传递
RNN
的
输出
作为时间步长T+1
的
输入
。input_
RNN
(T+1) = output_
RNN
(T)根据文档,tf.nn.
rnn
以及tf.nn.dynamic_
rnn
函数显式地接受所有时间步长
的
完整
输入
。
我
在上检查了单元格示例,它
使用
一个循环并调用seq2seq (input,state)函
浏览 4
提问于2016-09-25
得票数 13
1
回答
馈电叠加
RNN
输出
到全连接层
python
、
tensorflow
、
neural-network
、
recurrent-neural-network
、
rnn
我
试图用
tensorflow
中
的
堆叠
RNN
来解决回归问题。
RNN
输出
应该
输入
到一个完全连接
的
层中进行最终
的
预测。目前,
我
正在纠结于
如何
将
RNN
输出
输入
到最终
的
fully_connected层。
我
的
输入
是
形状
为batch_size,max_sequence_l
浏览 1
提问于2018-04-13
得票数 1
4
回答
rnn
/multi_
rnn
_cell/cell_0/basic_lstm_cell/kernel :尝试共享变量ValueError
tensorflow
、
deep-learning
、
lstm
batch_size, seq_len_1, 1], name='X')m_
rnn
_cell = tf.contrib.
rnn
.MultiRNNCell([
rnn
_cell] * 3, state_is_tuple=True) pre_
浏览 5
提问于2017-06-18
得票数 20
回答已采纳
1
回答
对
如何
在
tensorflow
中实现附加
的
LSTM
RNN
结构有什么想法吗?
python
、
tensorflow
、
deep-learning
、
lstm
、
recurrent-neural-network
我
希望
使用
示例并对其进行扩展,
以
实现下图所示
的
体系结构。)
我
打印了“状态”(
和
输出
),并期望“状态”有
输入
序列
的
形状
数,其中x是每个
输入
序列
的
长度。但是,当我打印“状态”(或“
输出
”)时,它们都有
输入
序列
的
形状
数, n_hidden ,其中n_hidden是隐藏层数
的
特征。首先,
我<
浏览 0
提问于2018-09-10
得票数 0
1
回答
tensorflow
:
如何
在
Tensorflow
中
使用
ResidualWrapper
和
HighwayWrapper?
python
、
tensorflow
、
deep-learning
我
试图在
我
的
网络结构中
使用
ResidualWrapper
和
HighwayWrapper,但是
我
得到了
形状
不
匹配
错误。所以我试过
的
是: import
tensorflow
as tf print(final_sta
浏览 11
提问于2019-04-24
得票数 0
回答已采纳
3
回答
如何
在
tensorflow
RNN
中提供最后一个
输出
y(t-1)作为
输入
以
生成y(t)?
tensorflow
、
recurrent-neural-network
我
想在
Tensorflow
中设计一个单层(y(t-1)),这样最后
输出
的
RNN
就可以参与更新隐藏状态。h(t) = tanh(W_{ih} * x(t) + W_{hh} * h(t) + **W_{oh}y(t - 1)**)
如何
将最后一次
输入
的
y(t - 1)作为更新隐藏状态
的
输入
?
浏览 1
提问于2016-02-02
得票数 8
1
回答
LSTM-
RNN
:
如何
塑造多变量
输入
machine-learning
、
tensorflow
、
deep-learning
、
lstm
大家好,
我
正在努力实现
tensorflow
RNN
:
我
想训练一个
RNN
的
LSTM实现来检测KDD99
数据
集中
的
恶意连接。它是一个包含41个特征
和
(经过一些
预处理
后)大小为5
的
标签向量
的
数据
集
。[x1, x2, x3, .....x40, x41],] [
浏览 2
提问于2017-06-16
得票数 0
1
回答
使用
RNN
生成一系列张量
tensorflow
、
lstm
、
rnn
我
正在
构建
一个
rnn
,
我
使用
tf.nn.dynamic_
rnn
来产生
输出
和
状态。(cell=cell, inputs=layer, initial_state=initial_state) 由于
输入
张量总是批处理大小= 1,所以initial_state
和
状态也有批大小1。层也是batch_size=1
的
输入
,每个单元有36个节点(嵌入序列
的
大小)。每个层都有ls
浏览 1
提问于2017-12-21
得票数 0
回答已采纳
1
回答
Numpy
和
tensorflow
RNN
形状
表示失配
python-3.x
、
numpy
、
tensorflow
我
正在
tensorflow
建造
我
的
第一个
RNN
。在了解了所有关于3D
输入
形状
的
概念之后,
我
遇到了这个问题。然而,在
tensorflow
“理论”(
我
认为它强烈地建立在numpy中)中,
RNN
细胞期望
形状
[batch_size, timesteps, features]
的
张量(也就是n维矩阵),它可以被翻译成:可以看到,表示不
匹配
,
浏览 0
提问于2018-12-27
得票数 0
回答已采纳
0
回答
基于
tensorflow
的
多维动态
rnn
tensorflow
、
recurrent-neural-network
在
tensorflow
的
dynamic_
rnn
函数中,
我
对
输出
形状
感到惊讶,
我
希望有人能帮助我提高对
RNN
cell
的
理解。)
和
110是批量大小;并且该单元被定义为,其中hidden_dim =6outputs, states =
rnn
.dy
浏览 5
提问于2016-12-30
得票数 0
1
回答
Tensorflow
LSTM-单元
的
输出
python
、
tensorflow
、
output
、
lstm
我
有个关于
Tensorflow
LSTM-实现
的
问题。
我
希望
rnn
_outputs是
形状
的
(batch_size, time_steps, n_units, input_length),因为
我
没有指定另一个
输出
大小。
的
文档告诉
我
输出
是(batch_size, input_length, cell.output_size)
形状
的
。
的</em
浏览 2
提问于2017-02-26
得票数 7
3
回答
动态展开
RNN
意味着什么?
neural-network
、
tensorflow
“动态展开
RNN
”是什么意思?
我
在
Tensorflow
源代码中特别提到了这一点,但是
我
正在寻找一种概念上
的
解释,它通常扩展到
RNN
。在
tensorflow
rnn
方法中,记录了以下内容: 参数sequenc
浏览 6
提问于2016-08-14
得票数 23
1
回答
Rnn
预测率受批量大小
的
影响?
tensorflow
、
rnn
我
正在
使用
Tensorflow
RNN
来预测一系列序列。
我
使用
Grucell
和
dynamic_
rnn
。在训练时,
我
输入
训练
数据
集
,
我
将其分成8批,每批
的
批大小为10 (1批
的
形状
为[10, 6, 2],即[batchsize, seqlen, dim])。为了防止过拟合,当训练
数据
集中
浏览 6
提问于2018-02-04
得票数 0
1
回答
如何
在
tensorflow
中张量
的
某些指标处插入某些值?
python
、
tensorflow
、
keras
、
mutable
、
tensor
假设
我
有一个张量input
的
形状
100x1,另一个张量inplace
的
形状
20x1
和
一个index_tensor
的
形状
100x1。
如何
使用
tensorflow
实现这一操作。 assign操作仅适用于tf.Variable,而我希望将其应用于tf.nn.
rnn
的
输出
。
我
看过一个人可以
使用
tf.scatter_nd
浏览 1
提问于2019-06-18
得票数 6
回答已采纳
1
回答
向用函数API编写
的
keras
RNN
输入
python
、
tensorflow
、
keras
、
masking
我
在
使用
用函数API编写
的
keras
RNN
进行掩蔽时遇到了一些问题。其想法是用
形状
(batch_size,timesteps,100)掩盖张量,零填充,并将其
输入
到SimpleRNN中。通过将
输入
的
形状
更改为(None, 1) --一个连续
的
输入
,其中每个元素都是一个整数,而不是n维嵌入--
我
已经完成了这段代码
的
工作。
我
也得到了
使用</
浏览 1
提问于2020-01-25
得票数 1
回答已采纳
1
回答
多层bidirectional_dynamic_
rnn
:与MultiRNNCell不兼容?
python
、
machine-learning
、
tensorflow
我
想在
Tensorflow
中创建一个多层双向LSTM。目前,
我
的
单层模型如下:cell_bw = tf.contrib.
rnn
.LSTMCell(hidden_size并将它们
输入
到bidirectional_dynamic_
rnn
中,因为每个层
的
前向
和
后向都需要前一层
的
正向
和
后向<em
浏览 0
提问于2017-03-08
得票数 5
1
回答
不能用MultiRNNCell
和
dynamic_
rnn
堆栈LSTM
tensorflow
、
lstm
、
multi-layer
我
想
使用
以下代码将他
的
模型扩展到多层LSTM模型:cell = tf.contrib.
rnn
.MultiRNNCell')
的
输入
形状
:?=cell, inputs=features, dtype=tf.float32)
我
没有这样
的
错误,但预测真的很糟糕。
我
定义了h
浏览 3
提问于2017-11-18
得票数 7
回答已采纳
1
回答
tf.nn.static_
rnn
给出了与
输入
不同
的
输出
大小
python
、
tensorflow
、
lstm
、
recurrent-neural-network
我
正在尝试
使用
tensorflow
实现LSTM网。
我
的
输入
是一个2 X 44(data_hold)矩阵,
我
把它分成4。当我检查
我
的
输入
序列时,它是一个
形状
为2 X 11
的</em
浏览 1
提问于2017-12-31
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
现代“罗塞塔石碑”:微软提出深度学习框架的通用语言
现代罗塞塔石碑:微软提出深度学习框架的通用语言
CNN与RNN中文文本分类-基于TensorFlow 实现
机器学习100天-Day12Tensorflow新手教程5
深度学习文本分类实战报告:CNN,RNN&HAN
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券