腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
Keras
中
具有
批
归一化
的
双向
LSTM
、
、
、
、
我想知道如何在
Keras
中
实现
具有
批处理规范化(BN)
的
biLSTM。我知道BN层应该介于线性和非线性之间,即激活。这很容易用CNN或密集层实现。但是,如何使用biLSTM做到这一点呢? 提前谢谢。
浏览 4
提问于2017-06-22
得票数 10
回答已采纳
2
回答
为什么
双向
LSTM
有一半
的
参数计数比
LSTM
在角点?
、
、
、
、
我想在相同数量
的
tensorflow
keras
包装器
中
实现单向和
双向
LSTM
。例如,我用256个单元实现单向
LSTM
,用128个单元实现
双向
LSTM
(据我所知,每个方向
的
LSTM
为128个单元,总共256个单元)。实施细节:in_ = tf.
keras
.Input(shape=(28,28)) x = tf.
keras
.lay
浏览 0
提问于2020-07-27
得票数 1
回答已采纳
2
回答
如何在
LSTM
中
实现Tensorflow批量规范化
、
、
、
、
我当前
的
LSTM
网络如下所示。但我不确定这是否适用于
LSTM
网络。
浏览 0
提问于2017-10-25
得票数 19
1
回答
TypeError在
Keras
中
创建BLSTM网络时
、
、
、
、
我对
Keras
和深度学习有点陌生。
双向
LSTM
由前向
LSTM
和向后
LSTM
、output_dim=128组成。
双向
LSTM
由前向
LSTM
和向后
LSTM
、output_dim=128组成。我
的
目标是输入一
批
长度为40
的
8序列,并得到一
批
长度为40
的
8序列作为输出。我在
Keras
上发现了这个问题,@fchollet建议我应该
浏览 0
提问于2018-01-23
得票数 5
回答已采纳
2
回答
如何求出输入向量
的
平均值
、
、
、
我想找出输入向量
的
平均值。我试着使用tf.math.reduce_mean,但是它出错了。 return_sequences=True,
浏览 0
提问于2020-05-11
得票数 0
回答已采纳
1
回答
如何在函数API
中
实现
双向
包装器?
、
、
、
双向
层是否将编码器与解码器或解码器与解码器连接。这是编码器
的
三个部分,提供给下面的解码器。, h1, c1 =
LSTM
(256, return_state = True, return_sequences = True)(input_ctx_embed)_,h3, c3 =
LSTM
(
浏览 3
提问于2020-05-26
得票数 0
回答已采纳
1
回答
函数
Keras
模型
中
如何利用Tensorflow LazyAdamOptimizer进行梯度
归一化
?
、
、
我在
Keras
中使用
的
是
双向
RNN,需要使用Tensoflows。我需要做梯度
归一化
。如何利用张量流LazyAdamOptimizer实现梯度
归一化
,而不是进一步使用函数角模型?我正在训练一个无监督
的
RNN来预测10长
的
输入序列。问题是,我使用
的
是一个
keras
函数模型。由于嵌入层
的
稀疏性,我需要使用Tensorflows,这不是
keras
中
的
默认优化器。当使用默
浏览 1
提问于2019-07-01
得票数 1
1
回答
检查输入时出错:期望
lstm
_28_input
具有
形状(5739,8),但得到形状为(1,8)
的
数组
、
、
、
、
import SeqSelfAttentionmodel =
keras
.models.Sequential() model.add(
keras
.layers.
LSTM
(epochs, input_shape=(train_X.shape[0], train_X.shape[2]), return_sequences=True))_33 (
LSTM
) (None, 5739, 20) 2320
浏览 0
提问于2018-12-17
得票数 1
回答已采纳
1
回答
ValueError:没有为任何变量提供梯度
、
、
、
这是我
的
模型:import tensorflow as tfimport tensorflow.
keras
.models_16/前进_
lstm
_50/
lstm
_单元格_83/内核:0‘,“
双向
”_16/前进_
lstm
_50/
lstm
_单元格_83/经常性_内核:0,“
浏览 0
提问于2020-11-15
得票数 6
回答已采纳
1
回答
从Tf1.2更新到TF 2.xBıdırectı定向抛出对象是不可迭代
的
、
、
Instructions for updating:因此,我已经按照警告
中
的
指示进行了更新(这是上面new作为注释
的
行)。TypeError: 'Bidirectional' object is not iterable 造成此错误
的
原因是什么,以及如何在代码
中</e
浏览 7
提问于2020-05-11
得票数 2
回答已采纳
1
回答
可以在
Keras
中
的
CNN之前添加
双向
LSTM
吗?
、
、
、
、
我目前正在开发一个系统,该系统可以对两个句子是否
具有
相同
的
内容进行分类。为此,我使用了预训练
的
词向量,因此有一个包含句子一
的
词向量
的
数组(s1)和一个包含句子二
的
词向量
的
数组(s2)。为了对它们是否相似进行分类,我通过将s1
中
的
所有向量与s2
中
的
向量进行成对比较来创建一个矩阵。然后将该矩阵输入到CNN分类器
中
,并对数据进行训练。这一切都非常简单明了。为了得到s1和s2
中</
浏览 1
提问于2018-10-11
得票数 0
1
回答
LSTM
多对一体系结构输出
的
计算
、
我是递归神经网络
的
新手,但我想用
LSTM
训练我
的
数据,但是我很难理解
LSTM
的
多对一体系结构。假设我
的
数据
的
大小是time_step x num_features,2 x 2和我必须使用多对一
的
LSTM
架构,因为我想进行分类。因此,在最后一个time_step
中
,我必须添加包含sigmoid激活函数
的
稠密(a),以预测序列类,即0或1。我
的
问题是, 当我计算a时,我需要包含所有隐藏
浏览 0
提问于2019-01-29
得票数 3
1
回答
如何处理
LSTM
模型
中
的
某些时间序列?
、
、
、
、
我是一个新
的
keras
用户,我想很容易地理解如何构建一个
lstm
模型。在我
的
数据
中
,我有很多用户,它们有很多序列,如下所示: X Labels我已经为一个用户获得了很好
的
性能。我想对所有的用户使用同样
的
方法。但我不知道如何为所有用户构建输入。例如,我想学习旧
的
用
浏览 3
提问于2017-06-10
得票数 0
回答已采纳
1
回答
TypeError:类型为“
双向
”
的
对象没有len()
、
我在运行
双向
LSTM
。但是这个错误出现了:这个代码有什么问题吗?请帮帮忙。import pandas as pd from tqdm import tqdm, trange from
keras
.utils import to_categ
浏览 0
提问于2019-12-24
得票数 0
1
回答
Keras
中
的
CNN-
LSTM
:尺寸误差
、
、
、
、
在
keras
1.2.2
中
,我创建了一个
具有
以下维度
的
数据集: 我希望<
浏览 3
提问于2017-03-02
得票数 3
回答已采纳
1
回答
升级代码rnn.static_bidirectional_rnn以适应tensorflow 2.0API
、
、
、
、
import tensorflow as tf
lstm
_f = rnn.BasicLSTMCell(n_hidden, forget_bias=1.0)blstm_out, state_f, state_b = rnn.static_bidirectional_rnn(
lstm
_f,
lstm
_b, x, dtype=tf.float32) 上面的代码与ten
浏览 5
提问于2019-05-07
得票数 2
回答已采纳
1
回答
如何将输入推送到
Keras
框架
中
?
、
、
我对
keras
还很陌生,尽管我阅读了
keras
中
的
文档和examples文件夹,但我仍然在为如何将所有内容整合在一起而奋斗。特别是,我想从一个简单
的
任务开始:我有一个令牌序列,其中每个令牌都有一个标签。我有很多这样
的
训练数据--实际上是无限
的
,因为我可以根据需要生成更多
的
(token, label)训练对。我想要建立一个网络来预测给定标记
的
标签。令牌
的
数量必须始终与标签
的
数量相同(一个令牌=一个标签
浏览 1
提问于2016-06-21
得票数 2
回答已采纳
1
回答
Keras
seq2seq分类
、
、
、
、
我在创建
Keras
模型时遇到了问题。我找到了一个简单
的
编码器解码器,并试图将其修复如下: decoder_
lstm
=
LSTM
(latent_dim, re
浏览 0
提问于2018-11-23
得票数 0
1
回答
在
Keras
中
处理批处理
中
可变长度
的
序列
、
、
、
、
, 10)
的
数据。序列长度小于m
的
批次
中
的
示例用零填充。现在,我们希望将其提供给
LSTM
,并且希望
LSTM
停止更新填充输入
的
输出。 在Tensorflow<
浏览 1
提问于2018-10-28
得票数 0
回答已采纳
1
回答
你能让
LSTM
手动忘记上下文吗?
、
、
我是机器学习
的
新手,我想知道是否有可能手动清空
LSTM
的
短期记忆。比方说,我想用“Jack and Jill up the the”这句话来训练
LSTM
,但是我决定不结束这句话。我用
的
是凯拉斯。
浏览 8
提问于2019-03-18
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券