腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
关于
PyTorch
中
验证
过程
的
一个
问题
:
val_loss
低于
train_loss
pytorch
有没有可能运行我
的
深度学习,在训练
过程
中
的
某个时候,我
的
验证
损失会
低于
我
的
训练损失?我附上了训练
过程
的
代码: def train_model(model, train_loader,val_loader,lr): "Model training" epochs, val_losses 这是
一个
多任务模型,我分别计算两个损失,然后考虑加权总和。我不确定<
浏览 457
提问于2021-11-21
得票数 0
回答已采纳
1
回答
在同一行上编写
pytorch
-ignite ProgressBar
的
验证
指标
python
、
pytorch
、
pytorch-ignite
有没有一种方法可以像keras
中
那样使用
pytorch
-ignite在进度条
的
末尾编写
验证
指标?我希望消息打印在栏
的
末尾,不带换行符。: {val_metrics['
Val_loss
']:.2f}") pbar.log_message(f"RMSE: {val_metrics['RMSE']:.2f}") 为了进一步澄清,下面是我现在得到
的
输出这是我想要
的
: Epoch [1
浏览 29
提问于2020-03-24
得票数 0
2
回答
验证
损失<训练损失和
验证
精度<训练精度
keras
、
accuracy
、
loss-function
我有
一个
二元分类
问题
。我得到了以下结果:
val_loss
(远)
低于
train_loss
,但是与培训集相比,
验证
的
accuracy也更低。这怎么可能?Epoch 1/10Epoch2/10 10708/10708 [=======] -
浏览 0
提问于2018-01-03
得票数 0
1
回答
为什么MNIST数字数据
的
验证
损失要比训练损失好?
machine-learning
、
keras
、
loss-function
、
mnist
我们用KERAS实现了
一个
简单
的
完全连接
的
神经网络,用于MNIST数字识别(60'000幅训练图像28x28像素)。为了
验证
,我们创建了
一个
随机分割与10%
的
训练数据。这就产生了以下情节: 辍学:我们没有使用任何辍学(参见下面的代码)。计算训练损失
浏览 13
提问于2022-11-28
得票数 0
1
回答
当训练神经元网络时,训练数据和
验证
数据之间
的
损失差异有多重要?
tensorflow
、
artificial-intelligence
、
conv-neural-network
、
training-data
、
loss-function
简短
的
问题
::在培训开始时(第
一个
时期),
验证
和训练损失之间
的
差异是衡量应该使用
的
数据量
的
一个
很好
的
指标吗?例如,增加数据量是否是
一个
好方法,直到开始时
的
差别尽可能小?这将节省我
的
时间和计算。回溯:,我正在研究
一个
能很快适应
的
神经元网络。应用多种技术,如辍学、批量归一化、降低学习率、减小批量大小、增加数据多样性、减少层数、增加过滤器大小等,取得了
浏览 1
提问于2020-02-29
得票数 0
回答已采纳
4
回答
PyTorch
:是否有
一个
与Keras()类似的明确
的
训练循环?
python
、
tensorflow
、
machine-learning
、
keras
、
pytorch
我将从Keras转到
PyTorch
,我发现
一个
令人惊讶
的
事情是,我应该实现自己
的
训练循环。在Keras
中
,有
一个
事实上
的
函数:(1)运行梯度下降,(2)在训练集和
验证
集上收集度量损失和准确性
的
历史记录。 在
PyTorch
中
,程序员似乎需要实现培训循环。由于我是
PyTorch
新手,我不知道我
的
训练循环实现是否正确。我只想把苹果对苹果
的
损失和准确性指
浏览 14
提问于2020-01-03
得票数 22
1
回答
火炬传递学习
的
准确性和无损性没有提高。Resnet 50和Cifar-10
python
、
neural-network
、
pytorch
我一直在尽力解决这个
问题
,但是我
的
结果仍然是一样
的
,我
的
验证
精度、
train_loss
、
val_loss
都没有提高。我不知道该怎么办了。我似乎找不到这个
问题
的
问题
。如果你需要更多
的
信息,请告诉我Epoch [0], last_lr: 0.00100,
train_loss
: 1.7113,
val_loss
: 1.4291, val_acc: 0.6011
浏览 5
提问于2022-03-22
得票数 0
1
回答
CNN模型
验证
的
准确性没有提高
python
、
keras
我目前正在研究CNN分类模型,我必须预测wav文件上
的
单词。我遇到了
一个
问题
,我
的
验证
准确性保持(几乎)不变,首先,我是考虑过度,但这似乎不是
问题
。下面您可以看到不同时代
的
结果
的
照片: 我正在建立
一个
与凯拉斯
的
CNN模型,并使用‘亚当’优化器和'categorical_crossentropy‘
的
损失。我已经尝试过在1000之前增加划时代
的
数量,并改变了批次
浏览 3
提问于2019-12-09
得票数 1
1
回答
动量在我
的
梯度下降算法
中
无效。
python
、
machine-learning
、
deep-learning
、
neural-network
、
gradient-descent
我
的
前馈完全连接
的
ANN必须由以下部分组成: 10.
浏览 6
提问于2022-10-22
得票数 0
回答已采纳
1
回答
从cross_validation_score方法手工计算
的
日志丢失--学习
scikit-learn
、
cross-validation
我有
一个
问题
,
关于
cross_val_score()如何从科学学习
的
工作。我试着用Kfold()将数据集分成10倍,并计算每个折叠
的
训练集和
验证
集
的
日志丢失。X和y分别是形状(1800, 12)和(1800, 1)
的
数组。kfold = KFold(n_splits=10)
val_loss
= [] for train_index, val_index in kfold.split
浏览 3
提问于2022-10-12
得票数 0
1
回答
如何在
pytorch
中正确地在同一图上绘制train/val
python
、
machine-learning
、
logging
、
pytorch
我有以下代码,用于训练模型并将日志存储在结果变量
中
import sys results = {"
train_loss
": [], "
val_loss
": [], "train_acc": [], "val_acc": []} sys.stdout.write: {:.4f} train_acc:
浏览 1
提问于2021-04-04
得票数 0
1
回答
plot函数不会绘制曲线,而只是在PyCharm
中
绘制图例
python-3.x
、
matplotlib
、
deep-learning
、
pycharm
、
pytorch
我正在做一些
关于
使用
PyTorch
进行图像分类
的
作业。为此,我访问了以下链接:https://github.com/Bjarten/early-stopping-
pytorch
/blob/master/MNIST_Early_Stopping_example.ipynb,并获得了一些与训练损失和
验证
损失相关
的
结果 [ 1/10]
train_loss
: 1.56952 valid_loss:
浏览 16
提问于2019-08-29
得票数 1
回答已采纳
2
回答
通过列表跟踪损失是否会影响培训?
python
、
deep-learning
、
pytorch
、
resnet
我想画出我
的
CNN
的
损失,所以在开始使用test_loss_history = [] train_loss_history = []训练之前创建了列表,并在使用train_loss_history.append(
train_loss
) test_loss_history.append(test_loss)
的
每个时期之后添加了值。我之前对准确率也做了同样
的
处理,但当我为损失添加这些行时,准确率下降了大约40%。存储值是否会以任何方式影响训练
过程
?我正在使用Google Colab,并使用M
浏览 3
提问于2020-06-20
得票数 1
2
回答
放火雷电时代末/
验证
期结束
neural-network
、
pytorch
、
pytorch-lightning
需要帮助
的
部分用"#This部件“表示。我非常感谢您
的
帮助。def validation_epoch_end(self, outputs): epoch_acc = torch.stack(batch_accs).mean() return {'
val_loss<
浏览 4
提问于2022-01-20
得票数 0
回答已采纳
2
回答
Keras:最佳时期选择
python
、
keras
、
neural-network
、
callback
我正在尝试写一些逻辑来选择在Keras
中
运行神经网络
的
最佳时期。我
的
代码将训练损失和测试损失保存为一定数量
的
时期,然后根据某种逻辑选择最适合
的
时期。']); df_loss = concat但是,如果测试损失值
低于
开始时
的
列车损耗,则此方
浏览 1
提问于2017-11-22
得票数 4
1
回答
更大
的
批次规模提高了培训
的
太多。
pytorch
、
lstm
、
recurrent-neural-network
、
batchsize
我正在写
一个
分类器,它使用姓氏并预测它所属
的
语言。我发现与大批大小(2048及以上)相比,小批大小(256或更少)表现不佳。有人能给我一些
关于
为什么会发生这样
的
事情以及如何解决这个
问题
的
见解吗?+= loss train_losses.append(train_loss.cpu().detach().numpy()) model.eval()
浏览 7
提问于2022-01-07
得票数 2
回答已采纳
6
回答
如何将Keras丢失输出记录到文件
python
、
logging
、
machine-learning
、
neural-network
、
keras
当您运行Keras神经网络模型时,您可能会在控制台中看到这样
的
内容: 6/1000 [..............................] - ETA: 7994s- loss: 5111.7661 随着时间
的
推移,损失有望得到改善。随着时间
的
推移,我想把这些损失记录到
一个
文件
中
,这样我就可以从中吸取教训。我不知道在这种情况下我需要什么样
的
日志记录。无论采用何种方法,通过回调或日志模块或其他任何方法,我都希望听到您
关于</e
浏览 7
提问于2016-07-18
得票数 61
回答已采纳
1
回答
为什么使用相同
的
数据集进行培训和测试会提供不同
的
准确性?
python
、
tensorflow
我一直在研究培训和
验证
数据集
的
损失函数,我一直看到
验证
损失小于培训损失,即使它们是相同
的
数据集。我想了解一下为什么会这样。 对我来说,这是非常奇怪
的
浏览 2
提问于2020-11-06
得票数 9
1
回答
MNIST数据集过度拟合
pytorch
、
mnist
、
overfitting-underfitting
我想把训练数据做得过份,我想我在这里也是这么做
的
。我
的
训练损失
低于
我
的
验证
损失。这是我想出
的
密码。请看一看,如果我
的
训练数据过份了,如果我没有,我该怎么做呢?torch.optim.Adam(model.parameters(), lr=0.001, weight_decay = 1e-7) val_acc = []
train_loss
val_loss.append( epoch_val_loss
浏览 2
提问于2022-03-28
得票数 0
1
回答
在Tensorflow
中
恢复保存
的
神经网络
python
、
tensorflow
在把我
的
问题
标为重复之前,我想让大家明白,我已经经历了很多
问题
,但没有
一个
解决办法能够消除我
的
疑虑,解决我
的
问题
。我有
一个
经过训练
的
神经网络,我想要保存,然后用这个模型来测试这个模型对测试数据集。我试着保存和恢复它,但我没有得到预期
的
结果。恢复似乎不起作用,也许我错误地使用了它,它只是使用全局变量初始化器给出
的
值。 这是我用来保存模型
的
代码。=
train_loss</em
浏览 0
提问于2019-01-02
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
基于TensorFlow+Python的文本分类全程详解
代码详解:用Python给你喜欢的音乐分个类吧
深度解析 TalkingData 使用 DJL 进行大规模深度学习打分应用
PyTorch经验指南:技巧与陷阱
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券