腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
每次
精度
都
很高
,
但
结果
预测
是
错误
的
、
、
、
我试图通过输入温度、土壤湿度、pH和平均降雨量来
预测
作物
的
名称。而且准确率总是
很高
,即
每次
都在88%到94%之间。但是
预测
后
的
最终
结果
总是
错误
的
。count==0):else: print('The predicted crop is %s'%c) 我得到
的
输出
是
- T
浏览 29
提问于2020-01-31
得票数 0
回答已采纳
1
回答
查准率和召回率之间
是
如何成反比关系
的
?
、
、
首先,Recall=\frac{TP}{TP+FN}一种宣称每一张记录
都
具有高召回率
但
精度
低
的
模型。据我所知,如果
预测
的
阳性值
很高
,
精度
就会很低。
但
怎样才能回忆起高,如果
预测
积极
是
高
的
。 一种为训练集中
的
一个阳性记录指定一个阳性类
的
模型具有
很高</
浏览 0
提问于2021-07-02
得票数 0
回答已采纳
1
回答
ROC曲线与最优阈值
我正在做一个练习问题,
预测
一个二元
结果
。我绘制了一条ROC曲线,找到了未来
预测
观测
的
最佳阈值百分比为1,我发现这个阈值总是与我原始数据中等于1
的
观测百分比相匹配。对此有什么概念上
的
解释吗?
浏览 0
提问于2019-08-11
得票数 1
回答已采纳
2
回答
术语方差在机器学习模型中
的
意义是什么?
、
我熟悉术语,高偏差和高方差,以及它们对模型
的
影响。但是最近我在一次访谈中被问到机器学习模型中术语方差
的
含义?我想知道方差在ML模型中的确切含义,以及它是如何在您
的
模型中被引入
的
?如果有人能用一个例子来解释这一点,我会非常感激
的
。
浏览 0
提问于2018-08-23
得票数 22
回答已采纳
1
回答
在不平衡数据集上解释AUC、准确性和f1评分
、
、
、
、
在数据集不平衡
的
情况下,我试图了解AUC
是
一个比分类
精度
更好
的
度量标准。假设dataset包含3个类
的
1000个示例,如下所示:显然,这些数据
是
不平衡
的
一个天真的策略
是
预测
属于第一类
的
每一个点。b = [[0.7, 0.1
浏览 2
提问于2020-06-19
得票数 1
回答已采纳
2
回答
你能解释一下SVC和LinearSVC在科学学习中
的
区别吗?
、
最近,我开始学习如何使用sklearn,并且刚刚看到了这个奇怪
的
结果
。 我使用digits数据集在sklearn中尝试不同
的
模型和估计方法。当我在数据上测试一个支持向量机模型时,我发现在sklearn中有两个不同
的
类用于支持向量机分类:SVC和LinearSVC,前者使用一对一
的
方法,另一个使用一个对rest
的
方法。我不知道这会对
结果
产生什么影响,所以我两次
都
试了。我做了蒙特卡洛式
的
估计,我运行了两个模型500次,
每次</em
浏览 0
提问于2015-09-02
得票数 25
1
回答
了解二进制分类器
的
精度
和召回
结果
、
、
我知道机器学习中
的
精确度和召回率之间
的
区别。一种
是
对假阳性进行优化,另一种
是
对假阴性进行优化。在统计学中,它被称为对类型I或类型II
错误
的
优化。然而,我很困惑在什么情况下可以得到完全相反
的
精确度和召回率?比如
精度
=1和Recall=0?=1,这意味着没有FP,所有
预测
的
标签都是TP。如果已经有一些TP被
预测
,实际上根据Precision所有
预测
的
TP都是TP,那么
浏览 3
提问于2017-06-05
得票数 1
1
回答
随机森林回归
的
过拟合
结果
、
、
、
、
我有一个图像,其中包含每个像素4个不同
的
值。我使用了RF,以看我是否可以根据每个像素
的
其他3个值来
预测
第四个值。为此,我使用了python和scikit学习。首先,我拟合了这个模型,在验证之后,我用它来
预测
这个图像。我非常高兴和害怕看到我
的
模型得到了
很高
的
准确性: 99.95%!但是,当我看到
结果
的
图像时,它绝对不是99.95%
的
准确性:📷📷 (我做出了最大和最明显<em
浏览 0
提问于2020-06-21
得票数 2
回答已采纳
1
回答
如何使用nlp
预测
在Tensorflow-keras?
、
、
我在
预测
命名实体识别集时遇到了一些问题。在我训练和测试之后一切都很好。现在我想测试字符串之类
的
原始数据。inference_predict_function_223088] predict_functiontag2index,由训练集构建
的
词典我试着转换并使用这些,但是所有的
预测
显示为0,word_index =
浏览 2
提问于2020-08-28
得票数 1
回答已采纳
2
回答
TFF:对联邦学习模型进行了评价,得到了较大
的
损失值。
、
、
我正在尝试评估遵循这个
的
联邦学习模型。======================] - 1s 2ms/step - loss: 5193926.5000 - sparse_categorical_accuracy: 0.4576 我看到
精度
提高了,
但
损失很大。另外,我怎样才能看到每一轮
的
火车
结果
?
浏览 13
提问于2022-03-30
得票数 0
回答已采纳
3
回答
什么激活函数适合于Keras中
的
回归神经元
的
输入范围(0,1)和输出范围(-∞,∞)
、
、
、
、
将输入图像正则化为(0,1),输出为具有伪高斯分布
的
float32值(-∞,∞)。这个问题
是
由于激活函数选择
错误
造成
的
吗? model.compile(lo
浏览 5
提问于2020-05-04
得票数 1
回答已采纳
1
回答
有偏初始数据集主动学习
、
选择有偏差
的
初始(种子)数据集会影响使用主动学习构建
的
机器
的
训练和准确性吗?
浏览 5
提问于2016-02-14
得票数 1
回答已采纳
1
回答
为什么
每次
跑后我都会得到不同
的
预测
结果
?
、
、
、
我有一个简单
的
lstm模型model.add(LSTM(100, activation='relu', input_shape=(n_input,n_features)))model.compile(optimizer='adam', loss='mse')我对相同
的
数据进行训练和测试,
但
每次
都得到不同
的
预测
如果
浏览 0
提问于2022-03-12
得票数 1
回答已采纳
3
回答
KNN中K数的确定
在下面两个场景中,我有一个关于要选择多少k值(k=1、k=5或k=50)
的
问题。我最初认为选择k=5将是k
的
正确选择,因为它将减少
错误
总数。我想听听专家
的
意见,他们认为在这两种情况下,从三个选项( k=1、k=5或k=50 )中选择最好
的
k。📷
浏览 0
提问于2021-10-10
得票数 -1
1
回答
清晰可分数据
的
概率级
精度
、
、
、
我写了一个我认为
是
相当简单
的
SVM -分类器SVM=支持向量机。用具有不同参数
的
正态分布数据“测试”它,分类器
的
准确率为50%。怎么啦?这是代码,
结果
应该是可复制
的
:features2 = normrnd(50,5,[100,5]); features = [features1
浏览 4
提问于2017-09-13
得票数 2
回答已采纳
2
回答
雪橇课重量不起作用
、
、
我正在处理一个不平衡
的
数据集,和往常一样,它很容易获得一个高
精度
,
但
较少频繁类
的
召回率非常低。我想对较少上课次数
的
假阴性进行改进。针对学习随机森林
的
具体性,一种可能
的
策略
是
在较少频繁
的
类中设置一个惩罚
错误
的
class_weight,并使用一个学习评分函数作为ROC。作为一个极端
的
例子,如果我设置: class_weight = {0: 0.0000001, 1: 0.999999
浏览 0
提问于2018-01-05
得票数 3
3
回答
为什么在来自Keras
的
model.evaluate()中使用损失来计算
精度
?
、
这也许是个愚蠢
的
问题,
但
:我认为损失仅在训练中使用,当然,这取决于模型在
预测
中
的
优劣,而不取决于对样本总数
的
正确
预测
量
的
准确性。EDIT我
的
问题是因为我最近训练了一个binary_crossentropy损失
的
模型,来自model.evaluate()
的
准确率为
浏览 1
提问于2018-09-13
得票数 0
回答已采纳
2
回答
Tensorflow & Keras如何从一个热编码输出到类
预测
来计算
精度
?
、
、
、
我想知道TensorFlow/Keras中
的
精度
度量如何计算给定
的
输入是否与预期
的
预测
匹配,或者换句话说,它如何确定网络
的
预测
数量。但是,如果
是
这样,那么请考虑示例2:我知道,这样
的
输出在softmax中
是
不可能
的
,这将是这里
的
默认选择。
但
其他激活功能也是可能
的
。现在这里
浏览 3
提问于2020-05-02
得票数 3
回答已采纳
1
回答
在Keras中计算多个类
的
准确性
的
正确方法是什么?
、
、
、
我试图使用Keras来评估多类问题上机器学习模型
的
性能。地面真理和模型
的
预测
都在标签上。基本
的
真理标签
是
yt = [[1], [2], [3], [4]],
预测
是
yp = [[0], [2], [3], [4]]。然后,使用下面的代码来计算精确度
是
很简单
的
:accuracy = m(yt, yp).numpy() 这是因为每4个样本中就有3个样本被正确分类然而,也有一些文献(
浏览 6
提问于2022-08-23
得票数 0
1
回答
关于多标签分类
、
local/lib/python3.6/dist-packages/sklearn/metrics/classification.py:1437: UndefinedMetricWarning:在没有
预测
标签
的
样本中,
精度
和F分数定义不清,并被设置为0.0。“
精度
”,“
预测
”,平均值,warn_for) 我不明白上面的警告。如果
精度
和F分数定义
错误
,那么对于某个类,
精度
应该是0。但是对于所有的
浏览 0
提问于2019-06-15
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
周志华《机器学习》—第2章
如何评估机器学习模型的性能
机器学习模型性能评估(二):P-R曲线和ROC曲线
ChatGPT 的局限性:可信度、时效性、成本和专业性
机器学习入门——基本概念(2)
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券