首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何处理JFT-300M这类极不平衡的数据集,“再论深度学习时代数据的不合理有效性”?

如何处理JFT-300M这类极不平衡的数据集,“再论深度学习时代数据的不合理有效性”?
EN

Stack Overflow用户
提问于 2018-01-29 08:08:24
回答 1查看 440关注 0票数 0

在本文“深度学习时代数据的不合理有效性”中,作者使用一个新的数据集JFT-300M探讨了大数据对深度learning.The的影响,作者描述了数据集具有重长尾,实际上,尾部很重,每一个category.At的图像少于100幅,约有2K类,每个category.At有20幅以下的图像。这种长尾似乎不会对随机训练产生不利影响,ConvNets (训练仍然收敛).I想知道背后的原因,还是用其他技术呢?

EN

回答 1

Stack Overflow用户

发布于 2018-01-29 14:51:02

由于通常有很多方法,我认为适当的数据增强总是一个好主意。

另外,关于2000+类,您可能会发现层次化软件的想法很有用。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48496885

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档