首页
学习
活动
专区
工具
TVP
发布

GiantPandaCV

专栏作者
701
文章
859148
阅读量
93
订阅数
CVPR 2022:Generalized Few-shot Semantic Segmentation 解读
之前已经有过关于小样本语义分割的论文解读,关于如何用 Transformer 思想的分类器进行小样本分割,链接见:https://mp.weixin.qq.com/s/YVg8aupmAxiu5lGTYrhpCg 。本篇是发表在 CVPR 2022 上的 Generalized Few-shot Semantic Segmentation(后文简称 GFS-Seg),既一种泛化的小样本语义分割模型。在看论文的具体内容之前,我们先了解一些前置知识。
BBuf
2022-09-28
9520
一文读懂 Pytorch 中的 Tensor View 机制
用户在使用 Pytorch 的过程中,必然会接触到 view 这个概念,可能会有用户对它背后的实现原理感兴趣。
BBuf
2022-02-11
2.6K0
当可变形注意力机制引入Vision Transformer
通过在Transformer基础上引入Deformable CNN中的可变性能力,在降低模型参数量的同时提升获取大感受野的能力,文内附代码解读。
BBuf
2022-02-11
6220
如何实现比PyTorch快6倍的Permute/Transpose算子?
无论是在统治NLP届的Transformer,还是最近视觉领域的新秀Vision Transformer,我们都能在模型中看到Transpose/Permute算子的身影,特别是在多头注意力机制(Multi-Head Attention)中,需要该算子来改变数据维度排布。
BBuf
2021-11-12
1.1K0
基于OneFlow实现Unfold Fold算子
熟悉CNN的小伙伴应该知道卷积是一个很常用也很重要的操作,CNN里的卷积和信号处理的卷积并不是一回事,CNN的卷积是做一种二维的互相关运算,以《动手学深度学习》5.1章为示例:
BBuf
2021-10-20
5090
ShuffleNetV2-Yolov5 更轻更快易于部署的yolov5
【GiantPandaCV导语】毕设的一部分,前段时间,在yolov5上进行一系列的消融实验,让他更轻(Flops更小,内存占用更低,参数更少),更快(加入shuffle channel,yolov5 head进行通道裁剪,在320的input_size至少能在树莓派4B上一秒推理10帧),更易部署(摘除Focus层和四次slice操作,让模型量化精度下降在可接受范围内)。版权属于GiantPandaCV,未经允许请勿转载
BBuf
2021-09-14
2.2K1
【从零开始学深度学习编译器】十,TVM的整体把握
大概4个月前开始接触TVM,虽然是0经验开始看,但目前对TVM的IR以及Pass,Codegen,Scheduler等也有了一些基础的认识。所以这篇文章的目的是梳理一下TVM的整体架构,复盘一下自己学到了什么,以及为想学习TVM的小伙伴们提供一个整体思路。「从零开始学深度学习编译器」这个专题的文章和实验代码都被我汇总放到了https://github.com/BBuf/tvm_learn这个仓库中,当然是希望「大力点一下Star了」,感激不尽。仓库目录如下:
BBuf
2021-08-19
1.1K0
【从零开始学深度学习编译器】九,TVM的CodeGen流程
【GiantPandaCV导语】这里主要是走读了一下TVM的Codegen流程,从Relay的前端一直梳理到了Graph节点的内存分配,Relay IR到TIR节点的转换,TIR图节点的Schedule优化以及Lower function发生在哪里。这篇文章只是关注了调用链,一些具体的操作比如Schedule的优化,IR到TIR节点的转化以及Lower Function没有具体解释,后面会结合更多实例去尝试理解。
BBuf
2021-07-23
1.6K0
ResNet与常见ODE初值问题的数值解法
本文主要从三个方面来讨论DNN堆叠和数值方法之间的联系,以ResNet为例,但不仅仅是ResNet。
BBuf
2021-04-30
1.1K0
DCN V1代码阅读笔记
笔者前几天阅读了MASA 的可变形卷积算法,并写了一篇算法笔记:MASA DCN(可变形卷积) 算法笔记 ,然后里面也说了会放出一个代码解读出来,所以今天的推文就是来干这件事的,希望看完这篇文章你可对DCN的细节可以更加了解。本次解析的代码来自:https://github.com/ChunhuanLin/deform_conv_pytorch 。
BBuf
2020-06-04
1.3K0
MASA DCN(可变形卷积) 算法笔记
Deformable Convlolutional Networks是ICCV 2017一篇用在检测任务上的论文,它的出发点是在图像任务中目标的尺寸,形状变化不一,虽然目前(指代论文发表以前)的CNN对这些变化有一定的鲁棒性,但并不太够。因此论文以此为切入点,通过在卷积层中插入offset(可变形卷积)和在ROI Pooling层中插入offset(可变形ROI Pooling)来增强网络的特征提取能力。这个offset的作用是使网络在提取特征时更多的把注意力聚焦到和训练目标有关的位置上,可以更好的覆盖不同尺寸和形状的目标,并且offset也是在监督信息的指导下进行学习的,因此不用像数据增强一样需要大量先验知识才可以获得更好的效果,整体结构也保持了end2end。
BBuf
2020-05-26
1.3K0
【AlexeyAB DarkNet框架解析】二,数据结构解析
为了解析网络配置参数,DarkNet 中定义了三个关键的数据结构类型。list类型变量保存所有的网络参数, section类型变量保存的是网络中每一层的网络类型和参数, 其中的参数又是使用list类型来表示。kvp键值对类型用来保存解析后的参数变量和参数值。
BBuf
2020-02-21
1.3K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档