腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2652)
视频
沙龙
1
回答
训练损失减少,但准确性总是0?
python
、
keras
、
training-data
我
试着训练一个模型,输入是(3000,1)向量,主要由负数组成,输入不正确。输出是以向量(2500,1)表示
的
二值图像。
我
的
模型是这样
的
:model.add(Dense(3000, input_shape=(x_train.shape[1:]), activation='linear+00 -
val_loss
: 0.6930 -
val_accuracy
:
0.0000e+00
Epoch 2
浏览 1
提问于2020-12-08
得票数 0
回答已采纳
1
回答
为什么
我
的
val_accuracy
在
0.0000e+00
上
停滞不前
,
而我
的
val_loss
从一
开始
就在
增加
?
classification
、
loss
我
正在训练一个分类模型来对细胞进行分类,
我
的
模型基于本文:https://www.nature.com/articles/s41598-019-50010-9。由于我
的
数据集只包含10个图像,因此
我
执行了图像增强,以人为地将数据集
的
大小
增加
到3000个图像,然后将这些图像拆分为2400个训练图像和600个验证图像。然而,虽然训练损失和准确性随着更多
的
迭代而改善,但验证损失迅速
增加
,而验证精度<e
浏览 301
提问于2020-04-22
得票数 3
回答已采纳
1
回答
在
imdb数据集
上
使用tensorflow2/keras进行训练得到奇怪
的
结果
python
、
tensorflow
、
keras
、
tensorflow2.0
、
tf.keras
我
是第一次接触tensorflow2/keras。
我
在
tensorflow网站上关注了这个。
我
没有将文本数据下载到目录中,而是使用tensorflow_datasets将imdb数据集直接加载到张量/数值数组中。下面是
我
的
代码。+00 - accuracy: 0.5000 -
val_loss
:
0.0000e+00
-
val_accuracy
: 0.5000782/78
浏览 9
提问于2021-02-17
得票数 1
回答已采纳
1
回答
keras
val_loss
:
0.0000e+00
-
val_accuracy
:
0.0000e+00
python
、
tensorflow
、
keras
在
我
的
网络中,验证指标
从一
开始
就固定在
0.0000e+00
上
。
我
环顾四周,很少有人有同样
的
问题,但我不能按照同样
的
建议来解决它。 行被打乱,label已经转换为float32。这些是
我
在
类似问题上找到
的
建议。你能告诉
我
我
哪里错了吗?- loss: 0.5109 - accuracy: 0.7976 -
val_loss
浏览 215
提问于2020-07-22
得票数 0
1
回答
流动配合与滑脱间隙
tensorflow
、
machine-learning
、
keras
为什么
在
相同
的
数据集
上
,fit和评估之间
的
度量是不同
的
?:
0.0000e+00
-
val_Accuracy
:
0.0000e+00
- val_true_positives:
0.0000e+00
- val_true_negatives: 64.00004.0000 - val_true_negatives: 68.0000 - val_false_positives: 28.0000 - val_false_
浏览 5
提问于2022-07-27
得票数 -1
回答已采纳
1
回答
训练CNN:理解
在
训练模型时生成
的
数字数据
machine-learning
、
machine-learning-model
、
computer-vision
我
正在培训CNN关于kaggle和我
的
培训和测试数据集形状如下:(3068, 1, 100, 100) test shape (3068,) test target shape 但是当我用下面的代码训练
我
的
网络时,
我
在
训练
的
时候得到了流畅
的
输出,这意味着什么。这是否意味着验证分数只计算在95样本
上
,而不是306
浏览 0
提问于2021-02-17
得票数 0
1
回答
为什么
当列车图像从100幅
增加
到9000幅时,tf.keras丢失会变成NaN?
python
、
image
、
tensorflow
、
keras
、
computer-vision
我
在上学习CNN
的
一个例子。- accuracy: 0.2500 -
val_loss
: 2.4287 -
val_accuracy
: 0.5500在上述两种情况下,trainGenerator & validationGene
浏览 5
提问于2021-04-02
得票数 0
回答已采纳
1
回答
卷积神经网络似乎是随机猜测。
tensorflow
、
keras
、
deep-learning
、
neural-network
、
conv-neural-network
因此,
我
目前正在尝试用卷积神经网络建立一个种族识别程序。
我
正在按200 of版本
的
UTKFaceRegonition 输入200 of(如果您想要查看的话,可以将我
的
数据集放在谷歌驱动器
上
)。
我
注意到,
在
第一个和有时是第二个时期,验证
的
准确性是不同
的
,但在那之后,它最终保持不变。
我
增加
了像素分辨率,改变了每层
的
层数、层类型和神经元类型,
我
尝试过优化器(
在<
浏览 2
提问于2020-05-02
得票数 3
回答已采纳
1
回答
为什么
我
的
模特表演这么慢?
python
、
tensorflow
、
deep-learning
、
artificial-intelligence
、
conv-neural-network
我
有一个带有3块VGG架构
的
CNN模型from tensorflow.keras import datasets, layers, modelsEpoch 42/200Accuracy is
浏览 2
提问于2021-01-28
得票数 1
回答已采纳
1
回答
Keras Cnn模型不会提高准确性
python
、
tensorflow
、
keras
我
正在尝试使用Keras
在
Sklearn数据集
上
实现一个用于手写数字识别(load_digits)
的
Cnn。
我
已经让模型运行了,但它没有提高每个‘时期’周期
的
准确性,
我
猜是因为
我
的
标签不正确,
我
尝试使用'to_categorical‘对
我
的
Y值进行编码,但它显示以下错误: ValueError
浏览 5
提问于2021-01-13
得票数 0
2
回答
模型
在
使用keras时学习,但在使用tf.keras时不学习
python
、
keras
、
deep-learning
、
tf.keras
/final_model_middle_one.hdf5")当我使用keras时,准确率
开始
很高,达到83%,并在训练过程中略有提高。===>..................] - ETA: 17s - loss: 0.2966 - accuracy: 0.8707 当我使用tf.keras时,准确率从50%<
浏览 1
提问于2020-06-16
得票数 0
1
回答
如果损失值
增加
了Keras,则将权重重置为最后一个时期。
python
、
tensorflow
、
machine-learning
、
keras
、
callback
我
正在研究Keras中
的
ANN,它与一个不平衡
的
二进制分类数据集一起使用,
我
刚刚建立了一个自定义学习速率,它在每个时代
开始
时检查损失值与上一个时代相比是什么。如果它较小,
我
增加
了学习率,如果不是,
我
降低了学习率,
我
想把权重重新设置到与上一个时代相同
的
水平,
我
如何做到这一点?
我
发现了这样
的
东西这个能给我
浏览 4
提问于2022-05-03
得票数 1
1
回答
为什么
在
两个时期内val
的
准确率为100%,并且错误地预测了新
的
图像?(训练时每班1000幅图像)
machine-learning
、
python
、
deep-learning
、
tensorflow
我
的
CNN tensorflow模型报告了
在
两个时代内100%
的
验证精度。但它在单个新图像
上
的
预测是错误
的
。(这是多类问题。
我
有三门课)。如何解决这个问题?你能帮我理解这些划时代
的
结果吗?
我
每个类有1000幅图像,它们代表着
我
的
测试数据。当我有一个总计3,000幅图像
的
数据集时,如何才能在第一个时代达到1.00,每个类
的
数量是相等
的</e
浏览 0
提问于2021-11-29
得票数 2
2
回答
当我试验微调CNN模型时,
我
如何决定一个合适
的
头网络连接到模型
上
?
python
、
machine-learning
、
keras
、
deep-learning
、
computer-vision
我
正在一个包含植物病害症状图像
的
数据集
上
试验训练模型。
在
转移学习中,
我
移除了
在
imagenet数据集
上
预先训练过
的
VGG16模型
的
头。然后,
我
解冻了一些层
在
基础模型
的
末尾,并训练了另外100个时代。
我
也想用ResNet50模型
浏览 3
提问于2020-02-24
得票数 0
回答已采纳
2
回答
水果图像分类器(Python)
python
、
conv-neural-network
我
为10个时代编写了代码,
我
得到
的
结果如下: 对15077个样本进行训练,
在
4204个样本
上
验证: 1/10 15077/15077 ============================== -264s 17 10/阶跃损失: 1.0652 -精度: 0.5325 -
val_loss
: 0.3722 -
val_accuracy
: 0.8428 Epoch 2/10 15077/15077 ==损失:0.9391-
浏览 7
提问于2020-05-04
得票数 0
回答已采纳
1
回答
为什么
我
有极低
的
损失,但准确性是0?
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
epochs=200,
在
训练
的
时候这是最后
的
训练时代:33/33 - 3s - loss: 4.4143e-06 - accuracy:
0.0000e+00
-
val_loss
: 1.5500 -
val_accuracy
:
0.0000e+00
我
认为T
浏览 2
提问于2022-04-05
得票数 0
2
回答
Keras1DCNN总是预测同样
的
结果,即使训练集
的
精度很高。
python
、
keras
、
deep-learning
、
classification
、
conv-neural-network
我
的
一维CNN
的
验证精度停留在0.5,这是因为
我
总是
从一
个平衡
的
数据集中得到同样
的
预测。同时,
我
的
训练精度也
在
不断提高,损失也在按预期减少。奇怪
的
是,如果
我
在
我
的
训练集
上
做了model.evaluate() (在上一个时代有接近1
的
精度),它
的
精确度也将是0.5。
为什
浏览 3
提问于2021-01-17
得票数 0
回答已采纳
2
回答
Keras1DCNN总是预测同样
的
结果,即使训练集
的
精度很高。
machine-learning
、
deep-learning
、
classification
、
keras
、
cnn
我
的
一维CNN
的
验证精度停留在0.5,这是因为
我
总是
从一
个平衡
的
数据集中得到同样
的
预测。同时,
我
的
训练精度也
在
不断提高,损失也在按预期减少。奇怪
的
是,如果
我
在
我
的
训练集
上
做了model.evaluate() (在上一个时代有接近1
的
精度),它
的
精确度也将是0.5。
为什
浏览 0
提问于2021-01-18
得票数 1
回答已采纳
1
回答
为什么
我
的
多级keras模型不进行高精度
的
参数训练?
python
、
keras
、
computer-vision
、
model-optimizer
,模型
的
最大精度
在
30 %到40%之间。
我
注意到最糟糕
的
模型只经常预测一个类(100%正常,0%任何其他
的
),但是更好
的
模型
在
一个滑动尺度上预测,其中一些项目
在
10%,有些
在
70%。
我
也想知道
我
是否倒置了
我
的
样本重量,
我
的
项目0中
的
项目最多.它是否应该倒置,其中一个样本1代表2个样本0?
我</
浏览 10
提问于2022-11-04
得票数 0
1
回答
Keras - GRU层
的
经常性辍学损失:'nan',准确性:0
machine-learning
、
keras
、
lstm
、
recurrent-neural-network
、
gated-recurrent-unit
当我使用一个具有反复辍学训练损失
的
GRU层时(
在
几批第一阶段之后)取nan
的
“值”,而训练精度(从第二个时代
开始
)则为0。=====================] - 82s 7ms/step - loss: nan - accuracy:
0.0000e+00
-
val_loss
: nan -
val_accuracy
在
回归模型中,
我
还得到了类似的奇怪问题-- MAE
在
几千
的
范围内
浏览 3
提问于2020-03-22
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
软件外包为什么总是陷入算计扯皮的烂泥坑?出路在哪里?
云游戏、120Hz刷新率和更好的配件 2020年安卓手机游戏趋势预测
朋友圈秒变许愿池?今天,你@微信官方了吗?
告别瞻仰!“中国芯”终于崛起,国产光刻机突破22纳米
正则表达式是我们认识世界的哲学
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券