首页
学习
活动
专区
工具
TVP
发布

深度神经网络

专栏作者
23
文章
8938
阅读量
14
订阅数
深度残差网络+自适应参数化ReLU激活函数(调参记录21)Cifar10~95.12%
本文在调参记录20的基础上,将残差模块的个数,从27个增加到60个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在Cifar10数据集上的表现。
用户6915903
2020-05-17
4220
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。
用户6915903
2020-05-17
3850
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。
用户6915903
2020-05-09
3590
深度残差网络+自适应参数化ReLU激活函数(调参记录18)Cifar10~94.28%
本文将残差模块的数量增加到27个。其实之前也这样做过,现在的区别在于,自适应参数化ReLU激活函数中第一个全连接层中的神经元个数设置成了特征通道数量的1/16。同样是在Cifar10数据集上进行测试。
用户6915903
2020-05-09
3320
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。
用户6915903
2020-05-04
2790
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。
用户6915903
2020-05-04
4200
深度残差网络+自适应参数化ReLU激活函数(调参记录15)
训练集上还没拟合得很好,测试集准确率已经低于训练集准确率大约2.5%了。这是同时存在欠拟合和过拟合呀!
用户6915903
2020-05-04
2980
深度残差网络+自适应参数化ReLU激活函数(调参记录14)
这次再尝试解决过拟合,把残差模块的数量减少到2个,自适应参数化ReLU激活函数里面第一个全连接层的权重数量,减少为之前的1/8,批量大小设置为1000(主要是为了省时间)。
用户6915903
2020-05-04
2480
深度残差网络+自适应参数化ReLU激活函数(调参记录13)
从以往的调参结果来看,过拟合是最主要的问题。本文在调参记录12的基础上,将层数减少,减到9个残差模块,再试一次。
用户6915903
2020-05-04
3090
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020-05-04
3700
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。
用户6915903
2020-05-04
3370
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020-04-24
5150
深度残差网络+自适应参数化ReLU激活函数(调参记录9)
本文在调参记录6的基础上,继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020-04-23
3380
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
https://blog.csdn.net/dangqing1988/article/details/105670981
用户6915903
2020-04-22
3680
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
https://blog.csdn.net/dangqing1988/article/details/105628681
用户6915903
2020-04-22
2880
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
https://blog.csdn.net/dangqing1988/article/details/105628681
用户6915903
2020-04-22
3390
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
https://blog.csdn.net/dangqing1988/article/details/105627351
用户6915903
2020-04-22
3930
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
https://blog.csdn.net/dangqing1988/article/details/105610584
用户6915903
2020-04-22
4280
深度残差网络+自适应参数化ReLU激活函数(调参记录4)
https://blog.csdn.net/dangqing1988/article/details/105601313
用户6915903
2020-04-22
4210
深度残差网络+自适应参数化ReLU激活函数(调参记录3)
https://blog.csdn.net/dangqing1988/article/details/105595917
用户6915903
2020-04-21
3630
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档