首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >当真正的积极因素很少的时候

当真正的积极因素很少的时候
EN

Stack Overflow用户
提问于 2017-09-07 16:33:52
回答 2查看 40关注 0票数 0

假设你试图用机器学习来完成分类任务,比如说,看动物的照片,把马和斑马区分开来。这项任务似乎处于最先进的水平。

但是如果你把一堆贴着标签的照片扔到像神经网络或支持向量机这样的东西上,那么实际上斑马比马稀有得多,以至于系统最终学会了说‘永远是一匹马’,因为这实际上是最小化错误的方法。

这可能是最小的错误,但它也不是一个非常有用的结果。什么是建议的方式告诉系统‘我想最好的猜测哪些照片是斑马,即使这确实制造了一些假阳性’?关于这个问题似乎没有太多的讨论。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2017-09-07 17:06:35

对于不平衡的类(或倾斜的数据集),我通常做的事情之一就是生成更多的数据。我认为这是最好的办法。你可以到现实世界中去收集更多的不平衡类的数据(例如,找到更多斑马的照片)。您还可以通过简单地复制或复制转换(例如水平翻转)来生成更多数据。

您还可以选择一个分类器,它使用替代的评估(性能)度量,而不是通常使用的精度。看看精确度/召回/F1分数。

吴荣奎的ML课程第六周将讨论以下主题:链接

下面是我在处理不平衡类时发现的另一个很好的网页:链接

票数 1
EN

Stack Overflow用户

发布于 2017-09-10 21:25:01

对于这类不平衡的数据问题,学习与每个类相关的模式是一种很好的方法,而不是简单地比较类--这可以首先通过无监督学习(例如使用自动编码器)来完成。这是一篇很好的文章,可以在https://www.r-bloggers.com/autoencoders-and-anomaly-detection-with-machine-learning-in-fraud-analytics/amp/上找到。另一项建议--在运行分类器之后,可以使用混淆矩阵来确定应在何处寻找额外的数据(例如,许多斑马错误)。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/46101299

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档