腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
chatgpt 的
神经网络
一共有多少层?
神经网络
、
人工智能
、
chatgpt
据说有一千亿参数,这些参数每层是怎么分布的
浏览 329
提问于2023-11-27
1
回答
加性注意计算复杂度与RNN单元的失配
machine-learning
、
deep-learning
、
nlp
、
recurrent-neural-network
、
attention-model
,虽然两者在理论复杂性上是相似的, 事实上,我们可以看到,的计算复杂性的加性注意和点戳(变压器
注意力
)都是n²*d。因此,加性
注意力
的计算复杂性不应该是n*d²而不是n²*d吗?
浏览 4
提问于2022-12-02
得票数 1
回答已采纳
1
回答
Microsoft Translator API (从统计
模型
切换到神经
模型
)
python-2.7
、
bing-api
、
microsoft-translator
、
bing-translator-api
我使用的是微软
翻译
器API (),我注意到它默认使用统计机器
翻译
模型
。但是,
神经网络
转换
模型
比统计
模型
更准确。如下图所示:我想通过API使用
神经网络
模型
。寻求关于如何从默认统计
模型
切换到神经
模型
的指导...
浏览 6
提问于2017-10-27
得票数 1
3
回答
注意机制是如何学习的?
neural-network
、
deep-learning
、
nlp
、
attention-mechanism
我知道如何在
神经网络
中引起注意。但我不明白注意层是如何学习关注某些特定嵌入的权重的。举一个例子:
注意力
是如何学会的? 谢谢!
浏览 0
提问于2020-01-23
得票数 16
回答已采纳
2
回答
是否需要一个密集的图层来实施巴哈瑙的关注?
machine-learning
、
deep-learning
、
attention-mechanism
关于“
注意力
是如何工作的”的教程是否错误?
浏览 0
提问于2020-10-17
得票数 1
2
回答
基于卷积
神经网络
的语言
翻译
neural-network
、
cnn
、
lstm
、
rnn
、
machine-translation
许多语言
翻译
神经网络
的例子:使用RNN,特别是LSTM。例如,参见句子语言的
神经网络
翻译
,具有简单的层次结构(如果可能的话)和关于Keras中的序列对序列学习的十分钟介绍。进行语言
翻译
的尝试?
浏览 0
提问于2020-02-28
得票数 1
1
回答
微软的深层
神经网络
模型
包含什么样的语言?
azure
我是调查微软
翻译
文本API。我了解到它有两种类型的
翻译
器
模型
,更新的深层
神经网络
模型
DNN和传统的统计机器
翻译
( SMT )。然而,我无法找到DNN
模型
所涵盖的可能语言。DNN
模型
涵盖60种语言吗?请告诉我。
浏览 2
提问于2017-11-13
得票数 0
回答已采纳
1
回答
seq2seq
模型
的训练方法选择
deep-learning
、
sequence-to-sequence
、
attention-model
你可以推荐哪种训练方法来训练基于
注意力
的序列到序列神经机器
翻译
模型
?SGD,Adadelta,Adam还是更好的?请给我一些建议,谢谢。
浏览 3
提问于2017-04-20
得票数 0
1
回答
没有隐藏状态的
注意力
网络?
machine-learning
、
rnn
、
machine-translation
、
attention-mechanism
我想知道编码器的隐藏状态对于
注意力
网络有多有用。当我研究一个
注意力
模型
的结构时,我发现一个
模型
通常是这样的:h: Encoder's hidden state which feeds forward to the next encoder's有了像
翻译
这样的过程,为什么编码器的隐藏状态是前向转发还是首先存在是很重要的?我们已经知道下一个x会是什么了。因此,输入的顺序对输出的顺序不一定重要,在
注意力
模型
同时查看所有输入的情况下,从
浏览 0
提问于2020-04-27
得票数 1
1
回答
没有隐藏状态的
注意力
网络?
machine-learning
、
recurrent-neural-network
、
translate
、
attention-model
我想知道编码器的隐藏状态对于
注意力
网络有多有用。当我研究一个
注意力
模型
的结构时,我发现一个
模型
通常是这样的:谢谢!
浏览 4
提问于2020-04-27
得票数 0
回答已采纳
1
回答
变压器多头注意机制及前馈
神经网络
的需求
machine-learning
、
neural-network
、
deep-learning
、
machine-translation
看完报纸后,
注意力
就是你所需要的,我有两个问题:该文件说:我的理解是,这有助于解决回指问题。我的疑问是,为什么一个人的
注意力
都不能在一段时间内学会这个联系呢?。 谢谢你的帮助。
浏览 0
提问于2019-07-14
得票数 10
1
回答
修正seq2seq
模型
的误差输出
tensorflow
、
machine-learning
、
neural-network
、
nlp
、
text-to-speech
我将给出一个关于语音合成的例子,但是任何来自不同领域的想法,比如机器
翻译
和语音识别,使用seq2seq
模型
都是很好的选择。现在,这是seq2seq
模型
的缺点之一,
浏览 0
提问于2018-06-02
得票数 0
回答已采纳
1
回答
用瓶服务tensorflow
模型
tensorflow
、
flask
我有.pb格式的
神经网络
翻译
的Tensorflow
模型
。我想用水瓶服务它,因为我想在移动应用程序中使用它。你知道如何使用水瓶为Tensorflow
模型
服务吗?之前谢谢你。
浏览 0
提问于2018-05-20
得票数 0
回答已采纳
1
回答
软
注意力
与硬注意
machine-learning
、
neural-network
、
recurrent-neural-network
在这篇博文( )中,Andrej提到了基于
神经网络
的机器学习的未来方向: 注意的概念是最近在
神经网络
中最有趣的建筑创新。..。用于记忆寻址的软注意方案是方便的,因为它保持了
模型
的完全可微性,但不幸的是,一个人牺牲了效率,因为所有可以处理的事情都会被处理(但是很柔和)。这促使多个作者将软
注意力
模型
转换为硬注意,其中一个人对要处理的特定内存块进行了采样(例如,某个存储单元的读/写操作,而不是在某种程度上从所有单元中读取/写入)。这个
模型
在哲学上更有吸引力、可扩展性和效
浏览 3
提问于2016-02-22
得票数 30
回答已采纳
1
回答
将印地语文本转录成英文文本
python
我对
翻译
不感兴趣。 所需效果的示例:输入‘मेरानाममोहनहै’以输出'mera naam mohan hai‘。
浏览 0
提问于2019-05-23
得票数 1
1
回答
注意力
是否能提高seq2seq自动编码器的性能?
text
、
nlp
、
rnn
、
autoencoder
、
sentence-similarity
我正在尝试实现一个RNN自动编码,我想知道
注意力
是否会改善我的结果。 我的最终目标是构建一个文档相似性搜索引擎,我正在寻找对文档进行编码的方法。既然我对训练解码器而是编码器不感兴趣,那么
注意力
是否会增加这个过程的价值呢?
浏览 4
提问于2018-11-08
得票数 0
1
回答
如何为非文本分类建模具有
注意力
机制的RNN?
python
、
recurrent-neural-network
、
attention-model
具有
注意力
机制的递归
神经网络
(RNN)通常用于机器
翻译
和自然语言处理。在Python中,具有
注意力
机制的RNN的实现在机器
翻译
中非常丰富(例如,https://talbaumel.github.io/blog/attention/,但是我想要做的是在时态数据文件(不是任何基于文本/句子的数据)上使用带
注意力
机制的https://talbaumel.github.io/blog/attent
浏览 28
提问于2019-01-17
得票数 1
2
回答
Keras有没有一个关注层?
python
、
tensorflow
、
keras
、
lstm
、
attention-model
我将为LSTM
神经网络
实现
注意力
机制。我使用了这一层(),但它增加了错误!也许这是因为我的数据集,但类似的研究已经在
注意力
层获得了更高的准确性。你能给我介绍一下在Keras中实现
注意力
的另一种简单易用的方法吗?
浏览 3
提问于2019-12-27
得票数 2
2
回答
注意力
机制真的是
注意力
,还是只是再一次回顾记忆?
deep-learning
、
attention-model
在阅读
注意力
机制时,我对
注意力
这个术语感到困惑。我们的
注意力
是否和通常的定义中描述的一样?
浏览 22
提问于2019-03-03
得票数 1
回答已采纳
1
回答
解析器(POS,TAG,Dependecency)在机器
翻译
中扮演什么角色?
parsing
、
deep-learning
我想知道分析句子的主要目的是什么,例如,我们在训练机器
翻译
时得到句子的所有词性标签?我认为我们只需要对句子进行标记化,然后将其输入
神经网络
进行训练?拥有POS标签的目的是什么?如何在训练机器
翻译
模型
的代码中实现它? 我似乎找不到任何例子。请协助
浏览 9
提问于2019-02-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
第十讲-神经机器翻译和注意力模型
循环神经网络(五)——Bean搜索、bleu评分与注意力模型
Google翻译如何运行?动图解析机器学习算法与神经网络模型
如何使用注意力模型生成图像描述?
无注意力机制的神经机器翻译
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券