首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >LSTM的记忆能力(实数)

LSTM的记忆能力(实数)
EN

Data Science用户
提问于 2019-03-05 13:31:46
回答 1查看 217关注 0票数 1

我的问题如下:

众所周知,LSTM可以记住表示整数的一个热编码序列(即在接收到x_1, ... x_n作为输入后输出x_1, ... x_nx_k \in \{0,1\}^m,其中m是不同整数的数目)。

理论上,LSTM是否有可能学着记住实数序列(可以用有限位来表示),即如果用x_t \in \mathbb{R}代替。

我关心的任务要简单得多--我只想在读取整个序列x_1之后输出第一个输入x_1, ... x_n。我用x_t \in \mathbb{R}做了一些小实验,用平方损耗。似乎有一定程度的成功,但结果不是很容易解释(当我看权重)。有人能说明一下这一点吗,特别是:

  1. 是否存在这样的权重配置?(下面的问题说明这个问题确实存在)
  2. 若然,是甚麽?若否,原因为何?

LSTM模型由以下几个方面指定:

输入、忘记和输出门:

f_t = \sigma(W_f [h_{t-1}, x_t] + b_f)
i_t = \sigma(W_i [h_{t-1}, x_t] + b_i)
o_t = \sigma(W_o [h_{t-1}, x_t] + b_o)

以及内部状态c_t和隐藏状态h_t

c_t = f_t * c_{t-1} + i_t * \text{tanh}(W_c[h_{t-1}, x_t] + b_c)
h_t = o_t * \text{tanh}(c_t)

应要求,这是分配问题:

内存任务描述考虑以下任务:给定n编号的输入序列,我们希望系统在读取此序列后返回序列中的第一个数字。这是给出了一个输入序列:(x_1, x_2, \cdots x_n)x_i \in \mathbb{R}系统必须返回,在t=n‘读取’最后一个输入x_n,第一个输入x_1之后。

  1. 鉴于上述任务,请考虑上述递归模型(RNNs/LSTMs/GRUs)。这些建筑中有哪一种(理论上)能完成上述任务?在回答这个问题时,请考虑一个简单的RNNs/GRU/LSTM单层模型,其中包含一个一维输入x_t,一个32-dim隐藏和输出层,然后转换到一个一维最终输出,该输出应该可以预测x_0。只要答案是肯定的,给出门的激活和怪胎,这将产生期望的行为。当答案为“否”时,证明不存在这样的参数,即可以将任意输入序列转换为产生第一个符号读取。
EN

回答 1

Data Science用户

发布于 2019-03-05 21:05:45

欢迎来到现场!如果您指的是一系列数字,比如在令牌化/NLP期间会得到什么,那么,是的,LSTM当然可以处理这个问题,不会有很多问题。如果您所讨论的范围要比这大得多,那么您可能需要考虑一种情况,即您可以扩展您的输入。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/46704

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档