前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >mish函数_实现多态的方式不包括

mish函数_实现多态的方式不包括

作者头像
全栈程序员站长
发布2022-09-20 15:32:50
3780
发布2022-09-20 15:32:50
举报
文章被收录于专栏:全栈程序员必看

大家好,又见面了,我是你们的朋友全栈君。

class Mish(nn.Module):   @staticmethod   def forward(x):     return x * F.softplus(x).tanh()

class MemoryEfficientMish(nn.Module):   class F(torch.autograd.Function):     @staticmethod     def forward(ctx, x):       ctx.save_for_backward(x)       return x.mul(torch.tanh(F.softplus(x))) # x * tanh(ln(1 + exp(x)))

    @staticmethod     def backward(ctx, grad_output):       x = ctx.saved_tensors[0]       sx = torch.sigmoid(x)       fx = F.softplus(x).tanh()       return grad_output * (fx + x * sx * (1 – fx * fx))

    def forward(self, x):       return self.F.apply(x)

第一种方式比较占显存,我是用的yolov4+第一种没有跑起来。第二种,是网上扒的,据说还可以,各位可以试试。。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/167136.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档