腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度神经网络
专栏作者
举报
23
文章
8938
阅读量
14
订阅数
订阅专栏
申请加入专栏
全部文章
神经网络
网络安全
https
apt-get
腾讯云测试服务
keras
语音识别
javascript
深度学习
批量计算
编程算法
搜索文章
搜索
搜索
关闭
深度残差网络+自适应参数化ReLU激活函数(调参记录21)Cifar10~95.12%
神经网络
本文在调参记录20的基础上,将残差模块的个数,从27个增加到60个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在Cifar10数据集上的表现。
用户6915903
2020-05-17
422
0
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
神经网络
apt-get
在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。
用户6915903
2020-05-17
385
0
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
神经网络
https
网络安全
腾讯云测试服务
由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。
用户6915903
2020-05-09
359
0
深度残差网络+自适应参数化ReLU激活函数(调参记录18)Cifar10~94.28%
https
网络安全
神经网络
腾讯云测试服务
本文将残差模块的数量增加到27个。其实之前也这样做过,现在的区别在于,自适应参数化ReLU激活函数中第一个全连接层中的神经元个数设置成了特征通道数量的1/16。同样是在Cifar10数据集上进行测试。
用户6915903
2020-05-09
332
0
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
https
网络安全
神经网络
在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。
用户6915903
2020-05-04
279
0
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
https
网络安全
神经网络
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。
用户6915903
2020-05-04
420
0
深度残差网络+自适应参数化ReLU激活函数(调参记录15)
https
网络安全
训练集上还没拟合得很好,测试集准确率已经低于训练集准确率大约2.5%了。这是同时存在欠拟合和过拟合呀!
用户6915903
2020-05-04
298
0
深度残差网络+自适应参数化ReLU激活函数(调参记录14)
https
网络安全
神经网络
这次再尝试解决过拟合,把残差模块的数量减少到2个,自适应参数化ReLU激活函数里面第一个全连接层的权重数量,减少为之前的1/8,批量大小设置为1000(主要是为了省时间)。
用户6915903
2020-05-04
248
0
深度残差网络+自适应参数化ReLU激活函数(调参记录13)
https
网络安全
从以往的调参结果来看,过拟合是最主要的问题。本文在调参记录12的基础上,将层数减少,减到9个残差模块,再试一次。
用户6915903
2020-05-04
309
0
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
神经网络
https
网络安全
apt-get
腾讯云测试服务
本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020-05-04
370
0
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
https
网络安全
神经网络
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。
用户6915903
2020-05-04
337
0
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
https
神经网络
网络安全
keras
javascript
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020-04-24
515
0
深度残差网络+自适应参数化ReLU激活函数(调参记录9)
神经网络
https
网络安全
keras
批量计算
本文在调参记录6的基础上,继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020-04-23
338
0
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
https
网络安全
神经网络
腾讯云测试服务
https://blog.csdn.net/dangqing1988/article/details/105670981
用户6915903
2020-04-22
368
0
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
神经网络
https
网络安全
apt-get
https://blog.csdn.net/dangqing1988/article/details/105628681
用户6915903
2020-04-22
288
0
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
神经网络
https
网络安全
apt-get
https://blog.csdn.net/dangqing1988/article/details/105628681
用户6915903
2020-04-22
339
0
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
神经网络
apt-get
https
网络安全
https://blog.csdn.net/dangqing1988/article/details/105627351
用户6915903
2020-04-22
393
0
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
神经网络
https
网络安全
apt-get
腾讯云测试服务
https://blog.csdn.net/dangqing1988/article/details/105610584
用户6915903
2020-04-22
428
0
深度残差网络+自适应参数化ReLU激活函数(调参记录4)
神经网络
https
网络安全
https://blog.csdn.net/dangqing1988/article/details/105601313
用户6915903
2020-04-22
421
0
深度残差网络+自适应参数化ReLU激活函数(调参记录3)
神经网络
https
网络安全
https://blog.csdn.net/dangqing1988/article/details/105595917
用户6915903
2020-04-21
363
0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档