腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
LSTM
模型
的
损失
不减
nlp
、
pytorch
、
lstm
、
loss-function
我正在编写一个程序,它利用
Pytorch
中
LSTM
中
的
构建,但是
损失
总是在一些数字左右,并且不会显著减少。我
的
模型
是这样
的
: class
LSTM
(nn.Module):
lstm
=
lstm
.double()
l
浏览 122
提问于2021-05-03
得票数 0
1
回答
美国有线电视新闻网->
LSTM
级联
模型
到
PyTorch
闪电
python
、
deep-learning
、
conv-neural-network
、
lstm
、
pytorch-lightning
我试图隐藏
PyTorch
代码
的
CNN ->
LSTM
级联
模型
到
PyTorch
闪电。在nn.Module码中有两个
PyTorch
类,一个用于CNN (编码器),一个用于
LSTM
(译码器),最后一个隐藏层作为
PyTorch
的
输入。因此,在转换到
PyTorch
闪电之后,有两个pl.LightningModule类。我想知道如何在这两个类中填充所需
的
方法。以下是
PyTorch
中丢失
浏览 0
提问于2021-08-03
得票数 0
1
回答
基于前M和以下N元素
的
序列元素预测
keras
、
lstm
、
pytorch
、
sequence
、
deep-learning
...2121 # 300 numbers将所有序列拆分为训练/验证/测试集在测试和验证集中,将从180到190
的
位置上
的
使用预先训练
的
BiLSTM来预测验证和测试集中“0”
浏览 0
提问于2020-07-13
得票数 2
回答已采纳
1
回答
大类
的
LSTM
多类分类
lstm
、
multiclass-classification
、
pytorch
、
multilabel-classification
我想要建立一个
模型
,分类473类-product类别--但我面临
的
问题是
损失
,而不是减少。数据我用
的
是
PyTorch
(embedding): Embedding(15278, 200) (
lstm
):
浏览 0
提问于2020-02-26
得票数 0
回答已采纳
1
回答
为什么
损失
继续减少,而性能保持不变?
nlp
、
pytorch
、
bert-language-model
我使用
的
是bert-
lstm
-crf
模型
,其中bert
模型
来自https://github.com/huggingface/
pytorch
-pretrained-BERT/,
lstm
crf
模型
是我自己编写
的
bert-
lstm
-crf
模型
经过25个时期
的
训练后,在训练集、开发集和测试集上
的
性能保持不变,但
损失
继
浏览 18
提问于2019-05-01
得票数 1
1
回答
keras中
的
多对多RNN -预测每n个输入
的
输出
keras
、
neural-network
、
deep-learning
我正在尝试弄清楚如何使用
LSTM
/GRU构建一个
模型
,该
模型
可以预测多对多,但对于每n次(在我
的
例子中是7次)输入。例如,我
的
输入数据有一整年每天
的
时间步长,但我只尝试预测每周结束时
的
输出,而不是每天。我能找到
的
唯一信息是这个答案:Many to one and many to many
LSTM
examples in Keras 它说:“当步数不同于输入/输出长度时,多对多:这在Keras中是异常困难
的
浏览 48
提问于2019-02-13
得票数 0
1
回答
Pytorch
fasterrcnn resnet50 fpn
损失
函数
python
、
pytorch
、
loss-function
、
resnet
、
faster-rcnn
我使用
的
是本教程中预先训练好
的
模型
。https://
pytorch
.org/tutorials/intermediate/torchvision_tutorial.html#defining-your-model 该
模型
是
pytorch
的
更快
的
RCNN 50fpn
模型
。有人知道分类
损失
、
损失
和客观性
损失
函数是什么吗(即交叉熵或?)。
浏览 56
提问于2021-07-30
得票数 0
1
回答
如何在python中从预先训练好
的
模型
中获得权重,并在tensorflow中使用?
python
、
tensorflow
、
pytorch
、
lstm
如何在
PyTorch
中从预先训练好
的
模型
中获取权重并在TensorFlow中使用?这是预先训练好
的
模型
:
lstm
= torch.hub.load("BruceWen120/medal", "
lstm
")
浏览 3
提问于2021-11-28
得票数 0
1
回答
对RNN最大输出层
的
理解
python
、
lstm
、
pytorch
、
rnn
、
softmax
以下是Keras中
的
一个简单
的
LSTM
模型
:model = Embedding(input_dim=input_dim, output_dim32000/34532 (93%)] Loss: 2.790446我已经确保
损失
和优化器是相同
的
现在有趣
的
是,如果
浏览 2
提问于2018-11-26
得票数 2
回答已采纳
2
回答
PyTorch
版本
的
as简单Keras
模型
keras
、
lstm
、
pytorch
尝试将Keras中
的
一个简单
的
LSTM
模型
转换为
PyTorch
代码。Keras
模型
仅在200年后收敛,而
PyTorch
模型
: yhat = model.predict(x_input, verbo
浏览 0
提问于2019-02-21
得票数 4
回答已采纳
1
回答
Pytorch
中
LSTM
的
可变大小输入
deep-learning
、
lstm
、
pytorch
我正在使用可变长度视频
的
功能来训练一层
LSTM
。视频大小从10帧变化到35帧。我使用批处理大小为1。(bx)class LSTMModel(nn.Module): out = self.out(r_out[:, -1, :])我只想问一下:对于使用可变大小<e
浏览 1
提问于2018-04-14
得票数 5
回答已采纳
1
回答
GRU
损失
降至0.9,但不会进一步下降,
PyTorch
python
、
deep-learning
、
pytorch
、
lstm
、
recurrent-neural-network
我用来进行GRU实验
的
代码。print(loss,acc) opt.step() k+=1 grad_fn=<SelectBackward>)
损失
为对于这些简单
的
输入数据,GRU
损失
是如此之大。原因何在?这段代码中
浏览 40
提问于2020-10-15
得票数 2
回答已采纳
1
回答
超装
LSTM
型放电筒
python
、
deep-learning
、
pytorch
、
lstm
、
recurrent-neural-network
我正在学习关于
的
教程,以实现一个
LSTM
,用于使用
pytorch
进行文本分类。我试着在上应用这个实现,但是它有很大
的
局限性,达到了60%
的
最大精度。例如,请参阅列车/
损失
曲线:有没有什么建议(我对RNN/
LSTM
很陌生),以适应
模型
,以防止过高?
模型
摘自上述教程,看上去有点像这样: def __init__(self, vocab
浏览 12
提问于2022-07-04
得票数 1
1
回答
如何使输出之和为1
deep-learning
、
pytorch
我
的
(
PyTorch
)
模型
输出之和不是1,这是
模型
的
结构。
LSTM
(64, 64)Sigmoid()[1, 0, 0, …, 0, 0][.7842, .5, .5, …, .5, .5] 你知道任何函数可以使它
的
和1吗?
浏览 6
提问于2022-07-13
得票数 -1
回答已采纳
1
回答
如何在
pytorch
LSTM
中自定义多个隐藏层单元
的
数量?
lstm
、
pytorch
、
recurrent-neural-network
在
pytorch
LSTM
、RNN或GRU
模型
中,有一个名为"“
的
参数,它控制
LSTM
中隐藏层
的
数量。我想知道,既然
LSTM
中有多个层,为什么参数"hidden_size“只是一个数字,而不是包含多个层中隐藏状态
的
数量
的
列表,如10、20、30。我在处理一个回归项目时遇到过,在这个项目中,我将(seq_len,batch,feature)
的
序列数据提供给
LSTM
,我想要获得每个时
浏览 6
提问于2019-01-07
得票数 1
1
回答
在组合网络
的
子网上使用这两种
损失
python
、
keras
、
neural-network
、
deep-learning
、
lstm
我想分别计算每个网络
的
损失
。例如,在下面的图像中,
LSTM
1
的
丢失应该是(Loss1 + Loss2),系统
的
丢失应该是公正
的
(Loss2)我用上面的想法实现了像下面这样
的
网络,但是不知道如何编译和运行它。def build_
lstm
1(): h =
LSTM</e
浏览 1
提问于2018-11-14
得票数 3
1
回答
LSTM
自动编码器
的
这些实现之间
的
区别?
python
、
tensorflow
、
keras
、
pytorch
例1 (TensorFlow):model = Sequential()model.add(TimeDistributed(Dense(1)))该实现在应用
浏览 4
提问于2020-12-07
得票数 4
回答已采纳
1
回答
将
损失
值传递给Keras中
的
其他
模型
。
python
、
tensorflow
、
keras
、
deep-learning
、
lstm
假设我有两个相互串联
的
模型
。我用
的
都是
lstm
。我想从其中一个中得到一个预测,找出预测值和地面真相之间
的
损失
,并传递这个数字来更新另一个
模型
。有谁能告诉我在Keras
模型
中从外部添加外部
损失
的
地方。假设预测值与真实值之间
的
损失
为0.2。我想将这0.2作为外部值传递给另一个
lstm
模型
,以增加它
的
输出
损失
。
浏览 1
提问于2019-06-28
得票数 2
1
回答
目标为同维向量时word2vec矢量训练
的
损耗函数
的
选择
pytorch
、
lstm
、
word2vec
我有一个
lstm
,我用它作为序列发生器,训练word2vec向量.以前
的
实现为所有不同
的
标签产生了概率分布。词汇中
的
每个单词都有一个标签。这个实现使用了
Pytorch
的
CrossEntropyLoss。我现在想改变这一点,以便
lstm
输出一个向量,其维数与用于训练
的
向量相同。通过这种方式,我可以使用euclydian距离度量来匹配词汇表中
的
附近向量。问题是,为了做到这一点,我必须使用不同
的
损失
函数,
浏览 1
提问于2019-09-25
得票数 0
回答已采纳
2
回答
用
Pytorch
进行线性回归时
损失
不减
python
、
machine-learning
、
neural-network
、
pytorch
、
linear-regression
我正在用
Pytorch
解决一个线性回归问题。我使用
的
数据集是Kaggle
的
房价。在训练
模型
时,我发现
损失
并没有减少。它显示出一种不稳定
的
模式。这是我在100个时期后得到
的
损失
: Epoch [10/100], Loss: 222273830912.0000Epoch
浏览 55
提问于2020-07-12
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用PyTorch手写代码从头构建完整的LSTM
教你几招搞定 LSTMS 的独门绝技
使用Optuna进行PyTorch模型的超参数调优
对比PyTorch和TensorFlow的自动差异和动态模型
深度解析业内热度一直不减的泰山众筹模型
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券