腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3911)
视频
沙龙
1
回答
使用
Tensorflow
LSTM
PTB
示例
对
句子
进行
评分
、
、
、
我尝试
使用
一个
示例
LSTM
,它是根据训练的。此
示例
允许在整个测试集上获得困惑。但我需要
使用
训练好的模型来分别对每个
句子
进行
评分
(获得loglike)(以对STT解码器输出的假设
进行
评分
)。我
对
做了一些修改,并
使用
了代码:with tf.name_scope("Test"): for test_data_ite
浏览 2
提问于2017-07-06
得票数 0
2
回答
Tensorflow
中的动态
LSTM
模型
、
、
、
、
我希望设计一个
LSTM
模型
使用
Tensorflow
,其中的
句子
是不同的长度。我遇到了一个关于
PTB
数据集()的教程。这个模型如何捕捉不同长度的实例?该
示例
没有讨论任何有关填充或其他处理可变大小序列的技术。 如果我
使用
填充,展开尺寸应该是什么?
浏览 3
提问于2016-07-18
得票数 1
回答已采纳
1
回答
Tensorflow
LSTM
模型试验
、
、
、
、
我是
LSTM
和
Tensorflow
的新手,我尝试
使用
LSTM
模型来学习和分类我拥有的一些巨大的数据集。(我并不担心我打算学习的准确性)。我试图以类似于
使用
LSTM
的
PTB
单词预测教程的方式实现该模型。m.targets: y,我
对
我的
示例
进行
了如下修改m.targets: y,
浏览 2
提问于2016-04-29
得票数 1
1
回答
如何在Keras的
LSTM
的各个步骤中采用多个不同的损失函数
、
我有一套
句子
和他们的分数,我想训练一个
评分
系统来预测一个
句子
的分数,这样的一个例子是:我希望
使用
LSTM
来建立这样一个
评分
系统,并考虑
句子
中每个单词之间的顺序关系,因此将上面所示的培训
示例
转换为:在训练这个
LSTM
时,我想要
浏览 0
提问于2018-11-13
得票数 1
回答已采纳
2
回答
使用
TensorFlow
构建会话模型
我想构建一个会话模型,它可以
使用
TensorFlow
LSTM
使用
前面的
句子
来预测
句子
。
TensorFlow
教程中提供的
示例
可用于预测
句子
中的下一个单词。
lstm
= rnn_cell.BasicLSTMCell(
lstm
_size)state = tf.zeros([batch_size,
lstm
浏览 2
提问于2016-02-12
得票数 2
1
回答
有没有嵌入
Tensorflow
语言模型的
句子
?
、
、
、
、
我发现了
tensorflow
1b_lm项目: 但是,这个
示例
的结果包括7 '.npy‘文件。似乎它只是为
句子
中的每一个单词生成每个单词的嵌入?
浏览 1
提问于2016-11-25
得票数 0
1
回答
训练CNN-LSTLM端到端?
、
、
、
已经有许多论文(特别是图像标题)将CNN和
LSTM
架构联合用于预测和生成任务。然而,他们似乎都是独立于
LSTM
训练CNN的。我在浏览Torch和
TensorFlow
(用Keras),却找不到为什么不可能
进行
端到端的培训(至少从架构设计的角度来看),但似乎没有任何关于这种模型的文档。 那么,能做到吗?火炬或
TensorFlow
(甚至西亚诺斯或卡菲)是否支持联合训练端到端的CNN神经网络?如果是这样的话,是否就像将输出从CNN链接到
LSTM
并运行SGD一样简单?还是说它更复杂?
浏览 2
提问于2016-10-17
得票数 8
1
回答
可以在Keras中的CNN之前添加双向
LSTM
吗?
、
、
、
、
我目前正在开发一个系统,该系统可以对两个
句子
是否具有相同的内容
进行
分类。为此,我
使用
了预训练的词向量,因此有一个包含
句子
一的词向量的数组(s1)和一个包含
句子
二的词向量的数组(s2)。为了
对
它们是否相似
进行
分类,我通过将s1中的所有向量与s2中的向量
进行
成对比较来创建一个矩阵。然后将该矩阵输入到CNN分类器中,并对数据
进行
训练。这一切都非常简单明了。为了得到s1和s2中每个向量的隐藏状态,需要
使用
双向
LSTM
浏览 1
提问于2018-10-11
得票数 0
1
回答
tensorflow
rnn模型路径
、
、
我已经
使用
Tensorflow
训练了语言模型,如本所示Epoch: 13 Valid Perplexity: 124.502但我仍然
对
浏览 9
提问于2015-11-29
得票数 2
1
回答
用嵌入给LSTMCell整句给出维数误差
、
、
、
、
所以目前我坐在一个文本分类问题上,但我甚至不能在
Tensorflow
建立我的模型。我有一批长度为70的
句子
(
使用
填充),我
使用
的是嵌入大小为300的embedding_lookup。很遗憾,我正在为我的ValueError获得一个LSTMCell,因为它期待的是ndim=2,显然输入是ndim=3的,我还没有找到一种方法来改变
LSTM
层的预期输入形状。range(num_layers): cells.append(LSTMCell(num_units, forget_bias, state_is_
浏览 0
提问于2019-01-05
得票数 0
回答已采纳
1
回答
用
LSTM
对
通用语句编码器
进行
微调
、
、
、
label_A...我想
使用
通用语句编码器(v4)来获得该字符串的嵌入(将是
句子
),然后将其输入
LSTM
,
对
该序列
进行
预测。最后我得到了下面的代码:import
tensorflow
as tf import
tensorfl
浏览 2
提问于2021-06-23
得票数 1
回答已采纳
1
回答
用
LSTM
嵌入
句子
来分类
句子
是不起作用的
、
、
、
、
我试图建立
LSTM
神经网络来对
句子
进行
分类。我见过许多例子,其中
句子
被转换成文字向量
使用
手套,word2Vec等,这里是一个它的例子。这个解决方案是可行的,在类似的行上,我编写了下面的代码,它
使用
通用
句子
编码器生成整个
句子
的嵌入,并
使用
LSTM
对
句子
进行
分类,但是即使在200年以后,它也不能工作--模型不收敛。请找到下面的代码 import
tensorflow
浏览 0
提问于2021-03-16
得票数 1
回答已采纳
1
回答
BLEU代任务得分
、
在
使用
LSTM
或RNN生成新文本后,如何度量新text.can的质量?我
使用
BLEU
评分
,而BLEU则用于评价线
对
行生成任务,该任务侧重于两行之间的语义相关性。在这里,我没有目标来比较两个
句子
,因为我完全得到了一个新的文本。
浏览 0
提问于2018-04-10
得票数 0
回答已采纳
3
回答
如何利用
LSTM
单元训练RNN
进行
时间序列预测
、
、
、
我用的是
tensorflow
和
lstm
细胞。该模型经过时间截断的反向传播训练。我的问题是如何组织培训的数据。
浏览 8
提问于2016-03-12
得票数 21
回答已采纳
1
回答
ValueError:尺寸必须相等,但{{节点均方_平方_误差/平方差}}= SquaredDifference[T=DT_FLOAT]为68和10
、
、
、
、
我
使用
LSTM
和VNN将主动文本转换为被动文本。我把标记化的数据输入到
lstm
中,得到形状的特征向量(68,1),然后
使用
它作为香草神经网络的输入数据以及形状的输出概率矩阵(68,10,10)。module>File "/Users/pranavpallavalli/miniforge3/envs/env_
tensorflow
_fn_kwargs
浏览 10
提问于2022-09-26
得票数 3
回答已采纳
2
回答
Word2Vec的
使用
、
、
、
、
抱歉,基本的怀疑, 我想知道我是否可以直接
使用
我的Word2Vec
进行
分类而不
使用
LSTM
。我的假设是,这是不可能的,因为单词的顺序不会被考虑在内。因此,它不会用于分类。但是我们
使用
BERT嵌入来
进行
分类。但是在这种情况下,伯特根据
句子
的上下文生成嵌入。因此,我们可以
使用
它
进行
分类。我的理解
对
吗?伯特通过顺序学习实现了
LSTM
的学习,无需顺序处理,而是通过对
句子
的整体处理找到嵌入。
浏览 0
提问于2022-07-29
得票数 2
3
回答
LSTM
:层顺序输入0与层不兼容
、
、
、
、
我正试图将来自Pandas DataFrames的数据安装到
LSTM
中,但对我必须提供的格式感到困惑。我创建了一个小代码片段,它将向您展示我试图做的事情:from
tensorflow
.keras.modelsimport Sequential targets = pd.DataFrame(index=pd.date
浏览 13
提问于2020-07-05
得票数 1
回答已采纳
1
回答
如何
使用
TensorFlow
LSTM
教程
进行
字符级语言建模?
、
、
我正在尝试
使用
TensorFlow
RNN实现Andrej Karpathy的博客中的RNN字符级语言模型。对于初学者,我从
TensorFlow
中的
LSTM
教程中获取了
ptb
_word_lm.py,并更改了阅读器函数,以便现在不再
使用
具有10000个不同单词的原始
PTB
数据集,而是在36个不同字符的流上
进行
训练诚然,在典型文本中的所有字符
对
中,"space-T“和"T-space”是最常见的,但RNN应该可以解决这
浏览 2
提问于2017-01-27
得票数 1
2
回答
使用
tensorflow
对
句子
相似性
进行
建模
、
、
、
我正在尝试
使用
tensorflow
对
句子
相似度
进行
建模。理想的做法是,首先将连接的
句子
馈送到rnn,然后将rnn的输出馈送到softmax,以
进行
二进制分类,无论相似与否。我
对
做了一些减号修改,但是成本不会像预期的那样降低。cost: 0.695012..."""The
PTB</em
浏览 0
提问于2016-05-03
得票数 7
1
回答
用于聚类(和分类)短句的NLP包词/TF-IDF
、
、
、
、
我希望将Javascript对象按其字符串键值(description)中的一个
进行
集群。我已经尝试过多种解决方案,并希望就如何处理这个问题提供一些指导。 按逻辑(类)组中的相似性对对象
进行
聚类。语义匹配将是很棒的,但就目前而言,仅仅是字符串的相似性就足够了。分层聚类与Levenshtein距离(单链接)-这里的问题是性能,结果令人满意(我
使用
了来自npm的hierarchical-clustering库),但在大约150,我将不得不等待大约一分钟。我
使用
(来自npm的
浏览 1
提问于2017-02-15
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券