腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(550)
视频
沙龙
1
回答
Yolov3
上
的
训练
模型
-
很小
,
但
平均
损失
始终
等于
-
nan
yolo
、
darknet
我正在用带有cpu
的
windows10
上
的
darknet做yolov3-tiny
的
实验。然而,我得到
的
是
nan
的
平均
损失
。我已经按照https://github.com/AlexeyAB/darknet.git
的
方向遵循了所有的方向。我编辑了我
的
cfg文件,将两个yolo
的
三个过滤器都设置为21 (因为我只有两个类)。我正在使用我自己制作<e
浏览 27
提问于2019-03-18
得票数 0
1
回答
高320宽320
的
YOLO列车
object-detection
、
tensorflow-lite
、
yolo
我正在使用
YOLOV3
用两个类
训练
我
的
对象检测
模型
。在yolov3.cfg
的
配置文件中,它
的
默认高度= 416,宽度= 416。现在我想用高度= 320和宽度= 320来
训练
它,所以我做了这些改变,开始了我
的
训练
,
但
这给了我
平均
损失
=南。但是当我用416 x 416来
训练
它
的
时候,它是完全正常
的
。那么,我如何
训练</em
浏览 1
提问于2022-06-12
得票数 0
1
回答
解释深层神经网络
的
训练
轨迹:非常低
的
训练
损失
,甚至更低
的
验证
损失
。
python
、
machine-learning
、
neural-network
、
deep-learning
、
keras
对于以下日志,我有点怀疑,当我
训练
一个深度神经网络
的
回归目标值在-1.0和1.0之间,其学习率为0.001和19200/4800
训练
/验证样本:19200/19200 [==============================] - 1597s - loss: 0.0151 - val_loss: 0.0098 两种
训练
都减少了验证
损失
,这是第一眼看到
的
好消息。但是,
浏览 0
提问于2017-01-28
得票数 1
回答已采纳
1
回答
ML
模型
在
训练
后给了我巨大
的
结果
python
、
machine-learning
、
keras
、
scikit-learn
我有一个非常小
的
数据集来
训练
,我正在
训练
这个
模型
,如下所示:import pandas as pd model.fit(x,y,epochs=50) data ["pred"] = yp 我从
训练
中得到了奇怪
的
结果- 0s 0us
浏览 16
提问于2020-03-13
得票数 0
2
回答
模型
的
训练
准确率是否计算在小批量
上
?
python
、
tensorflow
、
machine-learning
我试图记录
模型
在每个时期结束时
的
训练
精度,但我不确定
训练
精度是基于整个
训练
数据还是用于
训练
的
最后一小批数据计算
的
。例如,如果我有10000个
训练
数据,并且我正在使用100个小批次进行
训练
,我是使用最后100个小批次(该纪元中
的
第100个也是最后一个小批次)来计算
训练
精度,还是使用整个100个
训练
数据?
浏览 3
提问于2018-08-09
得票数 3
2
回答
非平衡数据集
的
加权交叉熵-多类分类
deep-learning
、
multiclass-classification
、
class-imbalance
我正在尝试将图像分类到超过100个类别,不同大小
的
范围从300到4000 (
平均
大小1500与std 600)。我使用
的
是一个相当标准
的
CNN,其中最后一层输出一个类
的
长度
的
向量,并使用py手电
的
丢失函数CrossEntropyLoss。我尝试使用$weights =\frac{max(尺码)}{size}$来表示交叉熵
损失
,这改进了未加权版本,
但
没有增加多少。 我还考虑过复制图像,这样所有类最终都会与大型类
的
大小相
浏览 0
提问于2018-05-15
得票数 10
2
回答
为什么随着我递增地增加更多
的
培训数据,培训和测试
损失
都会减少?
machine-learning
、
deep-learning
我试着递增地添加培训数据,并列出测试和培训
的
损失
。结果如下, 很高兴看到测试
损失
正在减少,
但
正如我在Andrew Ng
的
ML类中了解到
的
那样,如果我有一个像DNN这样
的
强大
模型
,那么
训练
损失
应该会随着我递增地添加更多
的
训练
数据而增加,而测试
损失
应该会减少他幻灯片
的
屏幕截图下面。
浏览 3
提问于2017-03-30
得票数 4
回答已采纳
1
回答
对多个GPU
的
培训会导致Keras中
的
NaN
验证错误
python
、
tensorflow
、
keras
我有一个Keras
模型
,它可以在单个GPU上进行良好
的
训练
,但是当我在多个GPU
上
训练
它时,所有用于培训
的
验证
损失
都是NaNs。 我正在使用一个fit_generator并调用一个验证生成器。在一个GPU
上
的
训练
损失
和验证
损失
的
返回值都是有效
的
,并且我
的
模型
收敛,但是在2个或更多GPU
上
,<e
浏览 0
提问于2019-01-21
得票数 1
1
回答
神经网络
训练
过程
的
诊断
optimization
、
keras
、
deep-learning
、
autoencoder
、
loss-function
我正在为一个回归问题
训练
一个自动编码器DNN。需要关于如何改进培训过程
的
建议。我
的
问题是:在此基础
上
,下一步我应该努力改进培训过程吗?编辑在1
浏览 0
提问于2019-01-24
得票数 1
7
回答
汇总直方图中
的
Nan
python
、
tensorflow
、
deep-learning
、
gradient
我
的
程序有时会遇到这个问题(并不是每次运行都会遇到这个问题),如果遇到这个问题,我总是可以在程序崩溃之前由于
nan
而保存
的
最后一个
模型
中重现这个错误。当从该
模型
重新运行时,使用该
模型
生成
损失
的
第一个
训练
过程似乎没有问题(我已经打印了
损失
,显示没有问题),但在应用梯度后,嵌入变量
的
值将变为
Nan
。 那么,
nan
问题
的
根本原因是什么呢?困惑,因为不知
浏览 7
提问于2016-10-04
得票数 9
2
回答
Tensorflow 1.15 / Keras 2.3.1 Model.train_on_batch()返回
的
值多于输出/
损失
函数
python-3.x
、
tensorflow
、
keras
、
deep-learning
、
tf.keras
我正在尝试
训练
一个有多个输出
的
模型
,因此,当我编译它时,也会有多个
损失
函数附加到它。 我以前没有做过类似的事情(至少不是从头开始)。 下面是我用来弄清楚这是如何工作
的
一些代码。model.train_on_batch(x, [y,y]) print(loss) # sample output [0.8311912, 0.3519104, 0.47928077] 我希望变量loss有两个条目(每个
损失
函数一个我认为其中之一可能是加权
平均
,
但
看起来不是这
浏览 127
提问于2021-03-17
得票数 2
回答已采纳
4
回答
深度学习中
的
训练
损失
和验证
损失
machine-learning
、
deep-learning
1)
损失
< validation_loss 2)
损失
> validation_loss 似乎
训练
损失
总是应该小于验证
损失
。但是,在
训练
模型
时,这两种情况都会发生。
浏览 3
提问于2018-01-12
得票数 11
1
回答
如何在不
损失
精度
的
情况下将暗网权重转换为CoreML
模型
?
python
、
keras
、
yolo
、
coreml
、
darknet
我已经
训练
了一个YOLOv3-SPP
模型
,我正在尝试将它转换成CoreML,这样我就可以在我
的
应用程序中使用它了。然而,我似乎找不到一种方法来做到这一点而不
损失
大量
的
准确性。此外,在Keras
模型
检测到对象
的
图片中,(在许多情况下)边界框要么变大,要么变小。我假设这意味着我
的
CoreML
模型
与h5
模型
一样准确(因此在我
的
例子中不可用)。我需要从远处探测相对较小
的
物体,所以我需要使用
浏览 43
提问于2020-01-20
得票数 0
1
回答
多次拟合时keras fit()
的
历史记录
python
、
tensorflow
、
keras
、
history
这个问题基本
上
是在keras存储库
的
Github论坛中提出
的
问题
的
扩展: 如果我
训练
这样一个
模型
,并在循环
的
最后一次迭代后检索历史,它是最后一次fit()迭代
的
历史还是所有fit
的
历史(例如,每个时期
浏览 4
提问于2021-07-11
得票数 1
3
回答
随机梯度下降增加成本函数
machine-learning
、
neural-network
、
gradient-descent
在神经网络中,梯度下降会查看整个
训练
集以计算梯度。成本函数随着迭代
的
进行而减小。如果代价函数增加,通常是因为错误或不适当
的
学习率。在随机梯度下降中期望
浏览 2
提问于2018-05-16
得票数 0
2
回答
tf keras SparseCategoricalCrossentropy和sparse_categorical_accuracy在
训练
期间报告错误
的
值
tensorflow
、
keras
、
cross-entropy
在
训练
期间,SparseCategoricalCrossentropy
损失
和sparse_categorical_accuracy
的
报告值似乎相差很远。我检查了我
的
代码,
但
还没有发现任何错误。==============================] - 0s 82ms/step - loss: 0.0065 - sparse_categorical_accuracy: 1.0000
但
如果我用
但
如果你盯着
训练
中
的
<em
浏览 85
提问于2020-10-18
得票数 5
1
回答
流爆梯度
python
、
tensorflow
、
conv-neural-network
我有一个CNN架构来输出一个对象周围
的
一个盒子
的
坐标:然而,如果我在tf中实现它,即使在一个时代之后,
损失
也会变成
nan
。我尝试过梯度裁剪和批处理规范化,
但
两者都不起作用。我怀疑我
的
损失
出了什么问题,下面是相应
的
代码:output = tf.layers.dense(dense, 4, name="output") error = output-ylearning_rate=0.001, mom
浏览 0
提问于2018-12-19
得票数 2
回答已采纳
1
回答
将Keras
模型
的
损失
函数乘以某个常数C,并将其学习率除以C
keras
在Keras中,如果将
模型
的
损失
函数乘以某个常数C,并将学习率除以C,那么
训练
过程中就不会出现差异,这是真的吗?def my_loss(y_true, y_est): 在第一个场景中,我使用学习率
等于
0.005
的
Adam优化器,并使用该
损失
函数和优化器编译
模型
我在一组
训练
数据<em
浏览 0
提问于2017-10-18
得票数 1
2
回答
解释Keras
损失
和准确度图
performance
、
keras
、
neural-network
我在解释这些
损失
和准确度图表时遇到了一些困难。例如,在第一个示例中,验证
损失
值相当低(它已经低于0.35),
但
随后迅速偏离。另一方面,在第二种情况下,验证从较高
的
值开始,然后似乎达到平台期(它不会像第一种情况那样开始增长)。此外,第四张图似乎有些奇怪,因为验证
损失
和验证精度似乎都随着时间
的
推移而下降。你认为这四个图中哪一个是最好
的
?
浏览 1
提问于2020-01-05
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券