腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
LSTM
神经网络
中
的
损失
函数
deep-learning
、
keras
、
lstm
我不明白在这些网络中被最小化
的
是什么。有人能从数学上解释一下,当
LSTM
网络
中
的
损失
变小时,会发生什么情况?
浏览 18
提问于2017-01-24
得票数 4
回答已采纳
3
回答
实现多到多回归任务
python
、
deep-learning
、
lstm
、
pytorch
对不起,如果我不清楚地提出我
的
问题,英语不是我
的
第一语言。这就像从空间x映射到空间y,输出必须与输入
的
形状完全相同这是时间序列问题,所以我决定使用RNN方法。下面是我在PyTorch
中
的
代码(我将注释放在代码
中
)。为了简单起见,我去掉了平均
损失
的
计算)。请注意,我已经尝试了许多学习速率选项,但行为仍然相同。= nb_
lstm
_layers # self.fc1 = nn.Linear()
浏览 0
提问于2018-12-07
得票数 5
回答已采纳
2
回答
字符串分类(已修改)
deep-learning
、
lstm
、
random-forest
、
rnn
我正在解决一个问题,我有大约32514行乱七八糟
的
字符"wewlsfnskfddsl...eredsda“,每行
的
长度是406个字符。我们需要预测它们属于哪个类?这里
的
类是1-12个书名。X = X.reshape((1,32514,1)) model = Sequential()========================
浏览 0
提问于2018-05-31
得票数 1
1
回答
为什么在Keras训练中有3次
损失
而2次准确?
tensorflow
、
keras
、
lstm
我
的
模型是这样
的
: fc_lyr = Dense_26_loss', 'val_
lstm
_151_loss', 'va
浏览 2
提问于2021-01-11
得票数 0
回答已采纳
1
回答
LSTM
-如何防止相同输入
的
不同
损失
/ R2结果?
python
、
keras
、
neural-network
、
lstm
我有一个用python (kears)编写
的
LSTM
神经网络
,我想用tp预测一些时间序列数据。我
的
问题是我总是得到不同
的
损失
和r2 (决定度)值,有时甚至NaN作为
损失
,尽管我根本不改变代码 我尝试使用不同
的
损失
函数
(mse,mae)。我还试着改变图层或序列
的
大小,但都不起作用。reshape(-1, 96, 4)from keras.model
浏览 26
提问于2019-08-22
得票数 1
回答已采纳
1
回答
LSTM
多对一体系结构输出
的
计算
deep-learning
、
lstm
我是递归
神经网络
的
新手,但我想用
LSTM
训练我
的
数据,但是我很难理解
LSTM
的
多对一体系结构。假设我
的
数据
的
大小是time_step x num_features,2 x 2和我必须使用多对一
的
LSTM
架构,因为我想进行分类。因此,在最后一个time_step
中
,我必须添加包含sigmoid激活
函数
的
稠密(a),以预测序列类,即0或1。我
的
问题是
浏览 0
提问于2019-01-29
得票数 3
2
回答
为什么经典
神经网络
在情感分析
中
的
表现优于
LSTM
keras
、
nlp
我
的
目标是预测某些评论
的
极性(负面的、正面的或中性
的
)。我尝试了两种不同
的
神经网络
: left_branch_dense = Dense(512, activation = 'relu=
LSTM
(256)(left_branch_embedding)
lstm
_ou
浏览 0
提问于2019-03-11
得票数 1
1
回答
LSTM
损耗
函数
与反向传播
lstm
、
rnn
、
training
、
backpropagation
我试图理解
损失
函数
和反向传播之间
的
联系。据我所知,在
LSTM
算法
中
,反向传播被用来获取和更新矩阵,在前向传播中使用偏差来获取当前
的
单元和隐藏状态。
损失
函数
取训练集
的
预测输出和实际输出。但哪一部分是
LSTM
的
培训部分?它们之间有某种联系吗?
LSTM
模式
的
培训目标是什么?
浏览 0
提问于2019-08-31
得票数 0
1
回答
所有隐藏状态
的
重复keras
LSTM
输出
python
、
tensorflow
、
keras
、
keras-layer
任务:使用
LSTM
输出,重复N次并与微数据连接。我希望对所有公司使用
LSTM
的
输出,即所有t
中
t
的
所有(此处H=4)隐藏状态,从而设置return_sequences=True,并重复它们N次,以便将它们与我
的
微数据连接起来,即用shape = (T然后,这些新
的
数据将被重塑为(T*N, K+H),并被输入一个具有自定义
损失
函数
的
前馈
神经网络
,该
函数
适用于两个
神经网络</e
浏览 4
提问于2020-07-24
得票数 0
回答已采纳
1
回答
用矩阵对单个值进行分类
python
、
matrix
、
machine-learning
、
scikit-learn
、
classification
我有一系列矩阵30x30,其中包含从0到75 (输入矩阵)
的
元素,每个矩阵都有一个30x30矩阵,只包含1s和0s (输出矩阵)。我试图在输入矩阵上训练一个分类器来预测输出矩阵,但是我不知道如何最好地表示分类器
的
输入矩阵(理想
的
sk-学习)。我不能将矩阵抽象成另一种形式,因为输入矩阵
中
的
每个元素必须映射到输出矩阵相同位置
的
元素。
浏览 0
提问于2019-03-29
得票数 0
回答已采纳
2
回答
基于输入数据
的
Keras
中
的
自定义
损失
函数
keras
我正在尝试使用Keras创建自定义
损失
函数
。我想根据输入计算
损失
函数
,并预测
神经网络
的
输出。 我尝试使用Keras
中
的
customloss
函数
。我认为y_true是我们用于训练
的
输出,y_pred是
神经网络
的
预测输出。下面的
损失
函数
与Keras
中
的
"mean_squared_error“
损失<
浏览 2
提问于2019-04-01
得票数 17
回答已采纳
1
回答
基于前M和以下N元素
的
序列元素预测
keras
、
lstm
、
pytorch
、
sequence
、
deep-learning
序列
中
的
每个元素都是从1到9之间
的
一个数字:33344467...1143 # 300 numbers...66118859...2121 # 300 numbers 我
的
任务是建立一个模型,根据序列
中
的
前179个元素和最后110个元素,在序列位置从180到190预测元素(数)。换句话说,给定位置从0到179和191到299
的
元素在从180到190位置
的
序列
中</
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
1
回答
Keras有状态
LSTM
返回验证
损失
的
NaN。
keras
、
lstm
、
multilabel-classification
我
的
训练集有50个时间序列示例,每个步骤有24个时间步骤,以及500个二进制标签(形状:( 50,24,500))。我
的
验证集有形状(12,24,500)。当然,我期望一个
神经网络
会非常适合。我有多个输入:一个称为seq_model_in,它是一个时间序列,另一个称为feat_in,它不是时间序列(因此在
LSTM
之后,但在分类步骤之前,它就连接到了模型
中
)。由于我
的
类高度不平衡,我还使用了Keras
的
class_weights
函数
。为了使该
函数
浏览 0
提问于2018-02-03
得票数 1
2
回答
如何处理
LSTM
无法学习
的
情况(经常做出同样错误
的
预测)
machine-learning
、
neural-network
、
deep-learning
、
time-series
、
keras
我试着用
LSTM
神经网络
来做一个作曲家。基本上,这是基于一个文本生成器(试图预测下一个字符后,看了一个字符序列),但它试图预测笔记字符,而不是字符。作为输入
的
midi文件
的
结构(Y轴是音高或音符值,而X轴是时间):这是预测
的
音符值:📷我怀疑这是因为有大量
的
特定注释(在本例
浏览 0
提问于2016-08-30
得票数 1
2
回答
Keras
中
的
LSTM
总是返回相同
的
输出。
python
、
keras
、
lstm
我有一个大小数据集(5358,293,30),我想训练一个
LSTM
网络来预测0到1之间
的
值。我
的
神经网络
定义如下:model.add(
LSTM
(10, input_shape=(293, 30)))model.fit(Xtrain, Ytrain, epochs=20, batch_size=38
浏览 1
提问于2019-01-10
得票数 4
1
回答
为什么增加单位或层数并不能提高精度和减少
损失
?
machine-learning
、
neural-network
、
deep-learning
、
lstm
、
loss-function
我有一个
LSTM
神经网络
;当我增加单位、层数、历元数或添加辍学数时,它似乎没有效果,而且我仍然存在以下持续
的
错误和准确性:
损失
: 3.5071 - acc: 0.0981 - val_loss: 6.7042
浏览 0
提问于2019-03-15
得票数 0
1
回答
LSTM
RNN回归:训练过程
中
验证
损失
的
不确定性
keras
、
tensorflow
、
lstm
在训练我
的
神经网络
时,我遇到了一些我不理解
的
不熟悉
的
行为。首先:高度不稳定
的
验证
损失
,而培训
损失
稳步下降。第二:训练
损失
下降非常缓慢(不是通常
的
指数衰减曲线)。我
的
模型架构是:model = Sequential() model.add(Bidirectional(
LSTM
(30, input_shape=(train_x.shape[1:]), return_seq
浏览 0
提问于2022-06-12
得票数 0
1
回答
理解用于
LSTM
(动态RNN)
的
张量输入和转换
tensorflow
、
lstm
、
rnn
我正在Tensorflow
中
构建一个
LSTM
风格
的
神经网络
,在将它传递到tf.nn.dynamic_rnn层之前,我很难确切地理解需要什么输入和后续
的
转换。理解输入batch_size,max_time此时,输入不会在运行时中断,但我不完全理解我们在这里做了什么,并怀疑它在计算
损失
时可能会导致问题(见下文)。loss = tf.red
浏览 3
提问于2017-11-16
得票数 1
回答已采纳
2
回答
正则化-将退出与早期停止相结合
machine-learning
、
deep-learning
、
rnn
、
dropout
我正在用
LSTM
细胞建立一个RNN (递归
神经网络
)。我用时间序列来进行异常检测。 在训练我
的
RNN时,我使用
的
是0.5
的
下降率,当我
的
验证
损失
在增加时,我会以5次
的
耐心提前停止。
浏览 0
提问于2018-04-20
得票数 4
回答已采纳
1
回答
如何创建自定义
损失
函数
,其中一个RNN
的
中间训练输出(张量y_pred)被馈送到另一个预定义
的
RNN?
tensorflow
、
keras
我希望创建一个自定义
损失
函数
,它不直接使用随机
神经网络
( y_pred )
的
中间输出,而是将y_pred作为输入输入到另一个随机
神经网络
(比如RNN2,它已经定义和训练好了),并将这些预测值用作
损失
函数
的
参数我尝试从model.compile
函数
调用我
的
自定义
损失
函数
,但这产生了一个错误。是不是因为我不能将张量数据类型
的
对象提供给RNN2?假设y_pred具有训练
浏览 2
提问于2019-09-08
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券