腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(51)
视频
沙龙
1
回答
如
何在
语音
情感
识
别的
LSTM
模型
中
屏蔽
填充
、
、
、
、
给定几个目录的.wav音频文件,我已经提取了它们在3D数组
中
的特征(批处理、步骤、特征)。 对于我的例子,训练数据集是(1883,100,136)。例如,其中一个音频有50组136个特征作为有效值,因此其余50组用零
填充
。 这是我的
模型
。def
LSTM
_model_building(units=200,learning_rate=0.005,epochs=20,dropout=0.19,recurrent_dropout=0.2):model.evaluate(X_test, y_test,
浏览 20
提问于2020-10-13
得票数 0
回答已采纳
1
回答
如
何在
云中部署深度学习
模型
?
、
、
我用keras (用于
情感
语音
识
别的
LSTM
分类器)与python一起构建了一个深度学习
模型
,它在本地工作得很好,但是当我加载
模型
或传递音频分类时,我得到了很高的内存使用量(到目前为止没有问题,因为我的机器中有我试图在一个烧瓶web应用程序中将我的
模型
部署到Azure
中
,我的问题是:我需要一个云中的“超级机器”来运行我的
模型
,或者还有其他方法来部署它,以降低成本?
浏览 1
提问于2020-12-26
得票数 1
回答已采纳
1
回答
文本嵌入层之后池化层的用途
、
、
、
、
我正在遵循tensorflow网站(https://www.tensorflow.org/tutorials/text/word_embeddings#create_a_simple_model)上的教程来学习单词嵌入,我有一个困惑是关于在嵌入层之后紧跟着一个全局平均池化层的目的,如下所示: model = keras.Sequential([ layers.GlobalAveragePooling1D(), layers.Dense(16, activation='
浏览 37
提问于2020-03-26
得票数 1
1
回答
用RNN学习词嵌入
、
、
学习单词嵌入的常用方法是基于弓
模型
和跳格
模型
. 是否有可能训练一个基于RNN的体系结构,比如GRU或
LSTM
,从一个大语料库
中
随机的句子来学习单词嵌入?
浏览 0
提问于2018-08-17
得票数 3
回答已采纳
6
回答
如
何在
C++
中
实现
语音
识别和文语转换?
、
我想知道做
语音
识别和文本到
语音
转换的各种技术。另外,请让我知道任何资源,
如
链接,教程,电子书等在它。 实现这一目标的最有效技术是什么?
浏览 2
提问于2009-12-23
得票数 12
回答已采纳
1
回答
用于实体识
别的
双向
LSTM
、
、
、
、
在一篇论文之后,我将使用单词嵌入作为实体识
别的
特征向量。 我曾尝试使用Keras构建网络,但遇到了一个我似乎无法解决的维度问题。请注意,在未完成时,sequence_length会附加0.
填充
。在本例
中
,实际的sequence_length应该是5。,运行两个双向
LSTM
,然后是softmax输出。在本例
中
,我的y变量是一个(9,8) one-hot编码矩阵,对应于每个单词的黄金标签。当尝试fit()这个
模型
时,我遇到了一个与TimeDistributed()层相关的维度问题,我不确定如
浏览 0
提问于2019-08-15
得票数 0
1
回答
如何收集和准备用于
语音
识
别的
数据?
、
据我所知,大多数
语音
识别实现都依赖于二进制文件,这些文件包含他们试图“识别”的语言的声学
模型
。一个人可以手动抄写大量的演讲,但这需要大量的时间。即便如此,当给出一个包含某些
语音
的音频文件,并在文本文件
中
对其进行完整的转录时,单个单词的发音仍然需要以某种方式分开。要匹配音频的哪一部分对应于文本,仍然需要
语音
识别。 这是怎么收集起来的?如果一个人交出了价值数千小时的音频文件及其全部转录(不考虑人工转录的问题),那么如
何在
一个单词结束和另一
浏览 6
提问于2015-08-03
得票数 2
回答已采纳
1
回答
如
何在
100 D字向量之外添加更多功能
、
、
、
、
我正在使用tweet文本进行
情感
分析。我能够使用Keras text_to_sequence()方法构建一个单词向量,并在Python
中
嵌入经过预先训练的GloVe。问题是如
何在
创建的GloVe嵌入之外添加额外的特性,并以正确的方式将其赋形给嵌入层和一般的算法?maxlen是用来
填充
单词序列的最大列数,因此所有向量都具有相同的长度。de
浏览 0
提问于2018-01-25
得票数 5
3
回答
如何设置
语音
识别服务器?
、
、
、
如
何在
服务器端实现
语音
识别(请不要建议HTML5's x-webkit-speech,javascript等)?该程序将以一个音频文件作为输入,并以足够的准确性提供音频文件的文本转录。我尝试过实现,但是它的准确性太差了(它们可能也是我的配置
中
的一些问题,我还在努力学习它)。在一篇文章
中
,我看到当我们使用<input name="speech" id="speech" type="text" x-webkit-speech />时,输
浏览 6
提问于2012-01-18
得票数 1
回答已采纳
2
回答
LSTM
如何处理变长序列
、
、
、
、
encoded_text = layers.
LSTM
(32)(embedded_text) loss='categorical_crossentropy',
如
您所见,这个
模型
的输入没有原始数据的形状信息,那么在嵌入层之后,
LSTM
浏览 1
提问于2018-04-19
得票数 10
回答已采纳
1
回答
为什么在使用CNN识别
语音
命令方面,Mel-filterbank的能量超过MFCC?
、
、
、
、
上个月,一个名为@jojek的用户在一个
中
告诉我以下建议: 由于人的耳朵对某些频率比其他频率更敏感,因此传统的
语音
识别方法是对这种表示做进一步的处理,将其转化为一组Mel-频率倒谱系数另外,我想知道Mel-Filterbank的能量是否仅在CNN上优于MFCC,或者
LSTM
、DNN、.等等,如果你能提供参考资料的话,我将不胜感激。那么,为什么我要使用所
浏览 3
提问于2020-02-27
得票数 7
3
回答
在Tensorflow
中
处理可变长度的文本
、
、
、
、
我正在建立一个Tensorflow
模型
来对文本短语进行推理。为了简单起见,假设我需要一个带有固定数量的输出类的分类器,但是输入
中
需要一个可变长度的文本。能在同一批数据
中
处理可变大小的输入吗?或者我是否应该对所有字符串进行
填充
,使它们都具有相同的长度,等于最长字符串的长度,使用某个占位符来表示缺失的单词?如果输入序列是不同长度句子
中
的单词呢? feed_dict={input:[[1, 2, 3], [1]]}
浏览 4
提问于2016-07-27
得票数 7
10
回答
可以根据文本的结构来猜测用户的情绪吗?
、
我假设需要使用自然语言处理器来解析文本本身,但是对于根据用户编写的文本检测用户情绪的算法,您有什么建议吗?我怀疑它是否非常准确,但我仍然感兴趣。
浏览 1
提问于2009-06-01
得票数 56
回答已采纳
2
回答
成员js @每个级别都很深,但我有两个深层次的关系
、
我必须访问控制器上的两个级
别的
属性,但是[]只能通过emberjs指南访问一个级
别的
深度。,它基本上是获取契约
模型
中
的分页格式的所有记录。然后,我设置控制器并循环所有这些
模型
,并绑定一个进入它的关系的sale_price属性,以获得正确的
模型
关系
中
的sale_price。
如
您所见,它依赖于selectedItems (基本上是
模型
,但通过属性进行筛选)。因此,我必须进入每个
模型
项,并找到我设置的sale_price
浏览 7
提问于2016-03-15
得票数 6
2
回答
理解Seq2Seq
模型
、
、
这是我对
LSTM
序列的理解。假设我们正在处理一个问答设置。第二组(蓝色)是一对多的
LSTM
,与第一组
LSTM
具有不同的权重。输入只是回答句,而输出是同一个句子,移动一句。问题有两个方面: 1.我们是否将最后一个隐藏状态(仅)作为初始隐藏状态传递给蓝色
LSTM
。或者是最后一次隐
浏览 10
提问于2017-09-22
得票数 7
回答已采纳
3
回答
模糊名称与昵称匹配
、
我有一个具有以下结构的数据集:如果每个预测器行都是一对全名、昵称和目标变量,则匹配,当昵称对应于具有该名称的人时,匹配值为1,否则为0。正如您所看到的,从全名获取昵称的方式并不遵循特定的模式。 我想训练一个ML算法,给出对的全名,昵称,预测匹
浏览 0
提问于2019-03-19
得票数 8
回答已采纳
6
回答
如何做到精准的
语音
识别?
、
我想知道我们如何构建世界上最准确的
语音
识别系统?
浏览 2772
提问于2018-11-02
1
回答
嵌入/嵌入层在深度学习
中
的应用
、
、
、
我正在探索深度学习方法,尤其是
LSTM
来预测下一个单词。假设,我的数据集如下所示:每个数据点包含7个特征(7个不同的单词)(这里是A),长度不同。这是
模型
lstm
_out=
LSTM
(units=64,activation='tanh')(main_input)
lstm
_out=Dropout(0.2)(
lstm
_out
浏览 1
提问于2019-05-28
得票数 1
回答已采纳
1
回答
如
何在
ML
模型
中使用分层变量
、
、
、
、
也就是说,如果我知道城市名称,我可以推断/
填充
其他变量,
如
state、country等。因此,我应该只使用ML
模型
中
的粒度级细节变量,而忽略其他级
别的
相同变量吗?因为我想这是相关的 ( b)对于如
何在
我们的
模型
中
处理这种情况,有什么建议或建议吗?
浏览 0
提问于2022-01-20
得票数 0
4
回答
变压器是如何双向机器学习的
我来自Google上下文(来自Transformers的双向编码器表示)。我看过建筑和密码。人们说这是双向,从本质上说是。为了使它成为单向的注意,一些掩膜将被应用。请有人解释一下是什么使变压器本质上是双向的。
浏览 2
提问于2019-03-14
得票数 13
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教你几招搞定 LSTMS 的独门绝技
吴恩达deeplearning.ai第5课:敲黑板序列模型
吴恩达deeplearning.ai第5课开课了:敲黑板序列模型
吴恩达deeplearning.ai第5课开课了!
情感识别的国内外研究现状之调研
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券