用户7368967

LV1
发表了文章

【哈工大】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录24)Cifar10~95.80%

本文在调参记录23的基础上,增加卷积核的个数,最少是64个,最多是256个,继续测试深度残差网络+自适应参数化ReLU激活函数在cifar10数据集上的效果。

用户7368967
发表了文章

【哈工大】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录23)Cifar10~95.47%

本文在调参记录21的基础上,增加卷积核的个数,也就是增加深度神经网络的宽度,继续尝试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。

用户7368967
发表了文章

【哈工大】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录22)Cifar10~95.25%

本文在调参记录21的基础上,将残差模块的个数,从60个增加到120个,测试深度残差网络+自适应参数化ReLU激活函数在Cifar10图像集上的效果。

用户7368967
发表了文章

【哈工大】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录21)Cifar10~95.12%

本文在调参记录20的基础上,将残差模块的个数,从27个增加到60个,继续测试深度残差网络ResNet+自适应参数化ReLU激活函数在Cifar10数据集上的表现...

用户7368967
发表了文章

【哈工大】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录20)Cifar10~94.17%

在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APR...

用户7368967
发表了文章

【哈工大】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录19)Cifar10~93.96%

由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在Cifa...

用户7368967
发表了文章

【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录18)Cifar10~94.28%

本文将残差模块的数量增加到27个。其实之前也这样做过,现在的区别在于,自适应参数化ReLU激活函数中第一个全连接层中的神经元个数设置成了特征通道数量的1/16。...

用户7368967
发表了文章

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录17)

在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10图像集上的效果。

用户7368967
发表了文章

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录16)

在调参记录15的基础上,本文将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16...

用户7368967
发表了文章

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录15)

训练集上还没拟合得很好,测试集准确率已经低于训练集准确率大约2.5%了。这是同时存在欠拟合和过拟合呀!

用户7368967
发表了文章

【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)

本文介绍哈工大团队提出的一种动态ReLU(Dynamic ReLU)激活函数,即自适应参数化ReLU激活函数,原本是应用在基于一维振动信号的故障诊断,能够让每个...

用户7368967
发表了文章

【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)

从以往的调参结果来看,过拟合是最主要的问题。本文在调参记录12的基础上,将层数减少,减到9个残差模块,再试一次。

用户7368967
发表了文章

【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录12)

本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试自适应参数...

用户7368967
深度学习
发表了文章

【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录11)

本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用自适应参数化ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的...

用户7368967
发表了文章

【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录10)

本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数...

用户7368967
发表了文章

【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录9)

本文在调参记录6的基础上,继续调整超参数,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。

用户7368967
发表了文章

【哈工大版】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录8)

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录7)

用户7368967
发表了文章

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录7)

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录6)

用户7368967
深度学习
发表了文章

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录6)

本文介绍哈工大团队提出的一种Dynamic ReLU激活函数,即自适应参数化ReLU激活函数,原本是应用在基于振动信号的故障诊断,能够让每个样本有自己独特的Re...

用户7368967
发表了文章

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录5)

【哈工大版】Dynamic ReLU:Adaptively Parametric ReLU及Keras代码(调参记录4)

用户7368967

个人简介

个人成就

  • 获得 46 次赞同
  • 文章被阅读 3.2K 次

扫码关注云+社区

领取腾讯云代金券