昨天介绍的都是一些经典的模型,平时见得多了也用过不少,很多深度学习架构里面都有Model Zoo,有那些模型的代码实现。
之前我用ResNet50和DenseNet训练参加Kaggle上面的猫狗分类器,效果并不是很好。最近我才突然意识到大概是因为没有用pre-train model进行迁移学习,以及多训练几个模型进行ensemble。打算这周用这两个方法再试试看。另外,如果想要自己构建一个新模型,最好是在ImageNet这样的大数据集上进行pre-train,然后再用到比赛的数据集中去。
对于简单的分类问题,可能主要目标在提升CNN算法上;但如果是复杂问题,更多的还是应该在结构上入手(比如如何更高效的在object detection中做region proposal),而作为特征提取部分的CNN,就直接用当下表现最好的模型即可。
然后是关于今天介绍的几个模型,算是那些主流模型的一些提升,有机会还是每篇文章都细看一下,写篇论文笔记。读论文的时候关注以下几个问题:
他们训练用的benchmark是什么?我想训练的话如何导入和使用这些数据集?
为什么这样改进?这样改进的优缺点是什么?如果是我,可以尝试哪个方向上的改进,深度、宽度还是不同结构的拼接?
这些模型没有pre-train模型,他们是如何跟那些已有模型的正确率进行比较的?是基于多少个epoch后比较的?如果我想做个新模型,如何进行测试比较?
领取专属 10元无门槛券
私享最新 技术干货