腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1221)
视频
沙龙
1
回答
在
tensorflow
2.0中
计算
句子
填充
嵌入
查找
的
原始
序列
长度
python
、
tensorflow
、
tensorflow2.0
text_tensor是形状[None,sequence_max_length,embedding_dim]中
的
张量,它包含一批
序列
的
嵌入
查找
。使用零来
填充
序列
。我需要在shape [None] (None是批处理大小)中获得一个名为text_lengths
的
列表,该列表包含没有
填充
的
每个
序列
的
长度
。我试过几个脚本。我得到
的
最接近
的</e
浏览 20
提问于2021-05-11
得票数 1
回答已采纳
1
回答
在运行时将特征连接到输入层
的
单词
嵌入
python
、
tensorflow
、
deep-learning
、
theano
、
feature-extraction
假设我
在
嵌入
查找
后获得一个输入矩阵,如下所示: [ [0.5, 0.25, 0.47, 0.86,0.8. 0.12, 0.63, 0.97,0.7, 0.47, 0.32, 0.01],...,[..,e在上述情况下,每个
嵌入
的
dim =4,
句子
长度
为3。我们如何使用
Tensorflow
/TFLearn或Theano中
的
占位符动态地(即,在运行时)与
句子
中
的
每个单词相对应地附加dim s
浏览 8
提问于2016-07-26
得票数 2
回答已采纳
1
回答
计算
每个时间步
的
可变
长度
输出
的
成本
python
、
tensorflow
、
machine-learning
、
neural-network
、
recurrent-neural-network
我正在用时间为主
的
格式time_steps,batch_size,input_size来训练网络上
的
句子
,我希望每个时间步都能预测
序列
中
的
下一个单词。
序列
被
填充
空值直到时间步长,并且单独
的
占位符包含批次中每个
序列
的
长度
。 关于时间反向传播
的
概念有很多信息,但是我找不到任何关于
tensorflow
中用于可变
长度
序列
成本
计算
浏览 19
提问于2017-12-31
得票数 1
回答已采纳
1
回答
Tensorflow
-保持稀疏
的
稀疏
嵌入
查找
python
、
tensorflow
、
conv-neural-network
、
text-classification
我正在用CNN实现一个文本分类器,类似于使用
Tensorflow
的
。
Tensorflow
提供了tf.nn.embedding_lookup_sparse,它允许您以稀疏张量
的
形式提供单词ID。这是很好
的
,特别是对于启用可变
长度
序列
。但是,该函数
在
查找
后需要一个“组合”步骤,例如“平均”或“和”。这迫使它回到致密张量空间。我不想做任何组合。我想把我
的
向量保持
在
稀疏表示中,这样以后我就可以做其他
浏览 2
提问于2018-11-07
得票数 2
1
回答
变压器模型中位置编码
的
实现细节?
encoding
、
deep-learning
、
nlp
、
transformer-model
、
attention-model
这个位置编码是如何
计算
的
?4,
嵌入
维数为4。,每个字
嵌入
,然后传递给编码器,如下图所示,就论文而言,他们给出了
计算
每个词
的
位置编码
的
公式, 所以,我想这就是我能实现
的
方法,3
浏览 1
提问于2020-05-01
得票数 4
回答已采纳
1
回答
用可训练字
嵌入
层和动态RNN: AdamOptimizer期望
的
float_ref代替浮点
python
、
tensorflow
、
nlp
、
lstm
我
在
单词
嵌入
序列
上使用RNN对
句子
进行分类。一开始,我在给预先训练过
的
单词
嵌入
内容,一切都很好。我将
嵌入
矩阵设置为一个具有维度(词汇量、
嵌入
大小)
的
tf.placeholder,并从GloVe中提供了一些经过预先训练
的
嵌入
。我还使用tf.nn.embedding_lookup将输入(即单词ID
序列
)转换为
嵌入
序列
。 然后我想让模型也训练
嵌
浏览 1
提问于2017-04-30
得票数 1
回答已采纳
2
回答
如何拟合不同
长度
的
特征向量
的
scikit模型
scikit-learn
、
scipy
、
audio-processing
、
librosa
、
sound-recognition
我正在做一个声音分类项目,假设我尝试确定某个录音属于哪一类
的
音频记录。您可能会将其与音乐类型或主题识别(文本体)问题进行比较,我
的
示例
长度
不同,我需要为每个示例精确地分配一个标签。我将我
的
特性表示为2d矩阵,其中每一列代表音频文件中
的
一个帧(例如。每一行都是一个仅与该时间框架相关
的
特性(例如。MFCC系数)。现在,虽然我
的
行计数是固定
的
,列
的
数量将根据记录
的
长度
而变化。我将训练和测试数据作为nump
浏览 7
提问于2020-07-14
得票数 0
1
回答
张量中
的
变长维
tensorflow
句子
的
数量是可变
的
,每个
句子
和问题中
的
单词数量也是可变
的
。每个单词都被编码为一个整数。所以我
的
输入应该是批量大小,
句子
#,
句子
中
的
单词#
的
形式。我是否仍然可以以某种方式将输入表示为单个张量,或者我必须使用张量列表,这样我就有了一个
长度
为batch_size
的
列表,然后是一个
句子
长度
数量
的
子列表,然后每个
浏览 1
提问于2016-04-08
得票数 3
1
回答
词
嵌入
解释
python
、
tensorflow
在
我提出这个问题之前,让我先说明这个问题已经
在
许多文章中得到了回答,但我仍然很难理解word
嵌入
的
基本格式。 让我们从“我喜欢狗”这句话开始。据我所知,这个向量被馈送到一个
嵌入
层,该
嵌入
层
在
RNN
的
输入张量上添加了一个额外
的
嵌入
维度(不必是普通
的
RNN)。对于批中
的
单个条目,
嵌入
张量(假设
嵌入
维度为2)如下所示: [4.55,6.78,->
浏览 14
提问于2018-12-21
得票数 2
回答已采纳
2
回答
基于卷积神经网络
的
文档分类
neural-network
、
classification
、
text-mining
、
convolutional-neural-network
、
word2vec
CNN
的
短文/
句子
已在许多论文中进行了研究。然而,似乎没有报纸使用CNN
的
长篇文本或文件。 我
的
问题是,文档中有太多
的
特性。
在
我
的
数据集中,每个文档都有超过1000个标记/单词。对于每个矩阵,高度是文档
的
长度
,宽度是字
嵌入
向量
的
大小。我
的
数据集有9000多个例子,它需要花费大量
的
时间来训练网络(整整一周),这使得很难对参数进行微调。另一种特征
浏览 0
提问于2016-04-11
得票数 12
1
回答
在
tensorflow
上使用word2vec作为输入
的
LSTM可变
句子
长度
python
、
tensorflow
、
lstm
、
word2vec
我正在构建一个使用word2vec作为输入
的
LSTM模型。我正在使用
tensorflow
框架。我已经完成了单词
嵌入
部分,但我被LSTM部分卡住了。这里
的
问题是,我有不同
的
句子
长度
,这意味着我要么做
填充
,要么使用dynamic_rnn指定
的
序列
长度
。我和他们两个都很纠结。 垫子。
填充
物最让人困惑
的
地方是我做
填充
物
的
时候。我担心
浏览 1
提问于2018-09-27
得票数 3
回答已采纳
1
回答
如何在Keras中设置LSTM
的
输入
keras
、
lstm
、
reinforcement-learning
我对Keras很陌生,我发现很难理解LSTM layer.The Keras文档中输入数据
的
形状,因为输入数据应该是带有形状
的
3D张量(nb_samples、timesteps、input_dim)。timesteps变量是否表示网络记住
的
时间步骤
的
数量?
在
我
的
数据中,几个时间步骤会影响网络
的
输出,但我不知道提前了多少次,也就是说,我不能说前10个样本会影响输出。例如,输入可以是构成
句子
的
单词。每个
句子
中
的
浏览 2
提问于2017-10-07
得票数 0
2
回答
深度学习图书馆中NLP
的
动态批处理和
填充
批
nlp
、
pytorch
、
huggingface
、
dynamic-batching
、
pad-truncate
这是我们训练NLP
的
现代深度学习模型
的
常用方法,例如,
在
Huggingface库中,输入no有一个固定
的
长度
。指记号/音音单位。https://huggingface.co/docs/transformers/pad_截断 在下面的例子中,我们有5个不同
长度
的
句子
,它们都被
填充
到最大
长度
设置为1024。我问题
的
第一部分是关于GPU内存<em
浏览 0
提问于2023-04-07
得票数 2
1
回答
BERT
嵌入
层
nlp
、
bert
我试图弄清楚
嵌入
层是如何为预先训练
的
伯特基模型工作
的
。Indices
的
最大
长度
为512。第一个word_embeddings权重将把Indices中
的
每个数字转换为一个768维数(
嵌入
维数)中
的
向量。 现在,position_embeddings权重用于编码输入
句子
中每个单词
的
位置。从BERT模型
的
替代实施来看,位置
嵌入
是一个静态转换。这似乎也是
在
变压器模型中进行
浏览 0
提问于2021-05-03
得票数 3
回答已采纳
1
回答
深度学习:如何构建字符级
嵌入
?
python
、
tensorflow
、
keras
、
pytorch
、
embedding
我试图
在
我
的
模型中使用字符级
嵌入
,但我对字符级
嵌入
几乎没有怀疑。,那么我们
填充
句子
所以形状是这样
的
: [ batch_size , max_sentence_length , embedding_dim ] 现在,对于字符级
嵌入
,我几乎没有什么疑问: 因此,对于字符级
嵌入
: 这里是我
的
困惑所在,所以
在
单词
嵌入
中,我们首先对
句子
进行标记,然后使用词汇id ( wo
浏览 23
提问于2019-05-14
得票数 3
回答已采纳
3
回答
tensorflow
中
的
静态
计算
图和Pytorch中
的
动态
计算
图有什么区别?
tensorflow
、
deep-learning
、
torch
当我学习
tensorflow
时,
tensorflow
的
一个基本概念是
计算
图,而这些图被认为是静态
的
。我
在
Pytorch中发现,这些图表据说是动态
的
。
tensorflow
中
的
静态
计算
图和Pytorch中
的
动态
计算
图有什么区别?
浏览 1
提问于2017-09-11
得票数 30
回答已采纳
1
回答
RNN语言模型(
TensorFlow
)
的
输入是什么?
python
、
tensorflow
、
sequence
、
recurrent-neural-network
、
language-model
我想在
TensorFlow
中建立一个递归神经网络,它可以预测单词
序列
中
的
下一个单词。我看过几个教程,例如
的
教程。我知道训练文本中
的
每个单词都映射到一个整数索引中。但是,关于输入还有一些我没有得到
的
东西: 对网络进行批量培训,例如同时使用128个实例。假设我们
的
词汇表中有10.000个单词。第二维度有多大,即
序列
长度
?我是否
在
批次
的
每一行中使用一个
句子
,用零
填充
浏览 3
提问于2017-09-20
得票数 1
1
回答
bidirectional_dynamic_rnn中
的
跳过值
python
、
tensorflow
、
lstm
、
recurrent-neural-network
我希望
在
整个文档上使用BERT-
嵌入
来实现NER。一个文档由几个
句子
组成,每个
句子
都由标记组成,并有可变
的
长度
。现在,我用BERT为每个
句子
创建单词
嵌入
,并为每个
句子
创建pad。然后,我想在文档
的
所有标记上使用双向LSTM来执行NER,而不仅仅是
在
句子
上。如果我这样做没有微调伯特(提取特性,如与ElMo
嵌入
),那么我可以只是删除
填充
令牌和连接所有
浏览 0
提问于2019-03-31
得票数 0
2
回答
我能创建一个具有多个rnn单元
的
图层吗?[关于论文
的
问题]
deep-learning
、
time-series
、
lstm
、
rnn
结构:如其所述: 特别地,我们将从每个循环编码器中学习到
的
嵌入
向量集成到一个新
的
结论
嵌入
向量中,共同考虑具有不同⟨α,β⟩配置
的
各种时间
序列
模式。据我所知,它使用多个独立
的
rnn单元来处理不同
的
时间
序列
,然后将所有的隐藏状态连接在一起,形成一个3D输入,该输入可以使用2d conv提取特征。但我没有看到有办法
在
同一层创建多个rnn细胞,我是否误解了??如果没有,你能给我一个指南或例子吗?
浏览 0
提问于2020-11-20
得票数 1
回答已采纳
1
回答
如何提取和使用伯特编码
的
句子
之间
的
文本相似性。(PyTorch/
Tensorflow
)
tensorflow
、
deep-learning
、
nlp
、
pytorch
、
bert-language-model
我想要建立一个文本相似模型,我倾向于使用该模型来
查找
常见问题和其他方法,以获得最相关
的
文本。我想对这个NLP任务使用高度优化
的
BERT模型,.I倾向于使用所有
句子
的
编码来获得一个使用cosine_similarity并返回结果
的
相似矩阵。
在
假设条件下,如果我有两个
句子
作为hello world和hello hello world,那么我假设BRT会给出类似于[0.2,0.3,0] (0表示
填充
)和[0.2,0.2,0.3]
的<
浏览 2
提问于2020-07-22
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教你几招搞定 LSTMS 的独门绝技
NLP之文本分类:“Tf-Idf、Word2Vec和BERT”三种模型比较
用TensorFlow Estimator实现文本分类
使用PaddleFluid和TensorFlow训练序列标注模型
Tensorflow教程-双向的LSTM文本分类
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券