首页
学习
活动
专区
工具
TVP
发布

GiantPandaCV

专栏成员
722
文章
990733
阅读量
100
订阅数
三个优秀的语义分割框架 PyTorch实现
本文基于动手深度学习项目讲解了FCN进行自然图像语义分割的流程,并对U-Net和Deeplab网络进行了实验,在Github和谷歌网盘上开源了代码和预训练模型,训练和预测的脚本已经做好封装,读者可以自行下载使用。
BBuf
2021-09-14
3K0
我卷我自己——cvpr2021:Involution
本文重新回顾了常规卷积的设计,其具有两个重要性质,一个是空间无关性,比如3x3大小的卷积核是以滑窗的形式,滑过特征图每一个像素(即我们所说的参数共享)。另外一个是频域特殊性,体现在卷积核在每个通道上的权重是不同的。
BBuf
2021-03-25
1.9K1
轻量级CNN架构设计
卷积神经网络架构设计,又指backbone设计,主要是根据具体任务的数据集特点以及相关的评价指标来确定一个网络结构的输入图像分辨率,深度,每一层宽度,拓扑结构等细节。公开发表的论文大多都是基于ImageNet这种大型的公开数据集来进行的通用结构设计,早期只以其分类精度来证明设计的优劣,后来也慢慢开始对比参数量(Params)和计算量(FLOPs),由于ImageNet的数据量十分巨大且丰富,所以通常在该数据集上获得很好精度的网络结构泛化到其他任务性能也都不会差。但在很多特定任务中,这种通用的结构虽然效果还可以,却并不算最好,所以一般在实际应用时通常是基于已公开发表的优秀网络结构再根据任务特点进行适当修改得到自己需要的模型结构。
BBuf
2020-12-08
8230
目标检测领域不容错过的50篇论文简读
【GiantPandaCV导读】用深度学习网络来完成实际场景的检测任务已经是现在很多公司的常规做法了,但是检测网络是怎么来的,又是怎么一步步发展的呢?在检测网络不断迭代的过程中,学者们的改进都是基于什么思路提出并最终被证实其优越性的呢?
BBuf
2020-11-09
9370
面向低功耗AI芯片上的神经网络设计
【GiantPandaCV导语】这篇文章为大家介绍了一下面向低功耗AI芯片上的神经网络设计,随着这几年神经网络和硬件(CPU,GPU,FPGA,ASIC)的迅猛发展,深度学习在包括互联网,自动驾驶,金融,安防等很多行业都得到了广泛的应用。然而当我们真正在实际部署深度学习应用的时候,许多场景例如无人驾驶对设备在功耗,成本,散热性等方面都有额外的限制,导致了无法大规模应用深度学习解决方案。感兴趣的同学可以了解一下有关如何面向AI芯片来设计神经网络。
BBuf
2020-10-30
1.5K0
CNN结构设计技巧-兼顾速度精度与工程实现
宽度(通道数)决定了网络在某一层学到的信息量,另外因为卷积层能重组通道间的信息,这一操作能让有效信息量增大(这也是1x1卷积的作用,它能学习出重组信息,使得对于任务更友好,所以这里不能和分离卷积一起比较,传统卷积的有效卷积数更多,正比于输入通道乘以输出通道,分离卷积的有效卷积正比于输入通道数,传统卷积相当于分离卷积前升维再做分离卷积)。
BBuf
2020-04-15
8510
卷积神经网络学习路线(二十三)| 经典网络回顾之XceptionNet
卷积神经网络学习路线这个系列旨在盘点从古至今对当前CV影响很大的那些经典网络。为了保证完整性我会将之前漏掉的一些网络补充下去,已经介绍了非常多的经典网络,这个系列可能也快要迎来完结了。接着卷积神经网络学习路线(九)| 经典网络回顾之GoogLeNet系列 也就是Inception V3之后,Google提出了XceptionNet,这是对Inception V3的一种改进,主要使用了深度可分离卷积来替换掉Inception V3中的卷积操作。
BBuf
2020-04-02
6710
估算卷积层与反卷积层运算量
对于炼丹师来说,针对任务调整网络结构或者在做模型精简的时候,都会去考虑模型的运算量的大概值,虽然这个只是一个间接参考值,网络真正的运行速度还要考虑其他的因素(具体解释可以参考shufflenet v2这篇文章的解读)。
BBuf
2020-04-01
9510
卷积神经网络学习路线(二十二)| Google Brain EfficientNet
这是卷积神经网络学习路线的的第二十二篇文章,要介绍的是2019年Google Brain的大作EfficientNet,论文全名为EfficientNet:Rethinking Model Scaling for Convolutional Neural Networks。
BBuf
2020-03-03
7010
【AlexeyAB DarkNet框架解析】五,卷积层的前向传播解析
今天来介绍一下DarkNet中卷积层的前向传播和反向传播的实现,卷积层是卷积神经网络中的核心组件,了解它的底层代码实现对我们理解卷积神经网络以及优化卷积神经网络都有一些帮助。
BBuf
2020-02-21
1.2K0
卷积神经网络学习路线(十九) | 旷世科技 2017 ShuffleNetV1
这是卷积神经网络学习路线的第19篇文章,主要为大家介绍一下旷世科技在2017年发表的ShuffleNet V1,和MobileNet V1/V2一样,也是一个轻量级的卷积神经网络,专用于计算力受限的移动设备。新的架构利用两个操作:逐点组卷积(pointwise group convolution)和通道混洗(channel shuffle),与现有的其他SOTA模型相比,在保证精度的同时大大降低了计算量。ShuffleNet V1在ImageNet和MS COCO上表现出了比其他SOTA模型更好的性能。论文原文见附录。
BBuf
2020-02-21
9790
【目标检测Anchor-Free】ECCV 2018 CornerNet
继续来探索Anchor-Free目标检测算法,前面讲了Anchor-Free的起源 目标检测算法之Anchor Free的起源:CVPR 2015 DenseBox ,其实同期另外一个有名的目标检测算法YOLOV1也是Anchor-Free系列的了。Anchor-Free系列相比于Anchor-Based的发展是较慢的,在2018-2019年才开始火起来。今天为大家介绍一下ECCV 2018的CornerNet,全称为:Detecting Objects as Paired Keypoints 。论文原文和代码见附录链接。
BBuf
2020-02-21
7240
将卷积神经网络视作泛函拟合
我们知道一般的神经网络几乎能够拟合任意有界函数,万能逼近定理告诉我们如果函数的定义域和值域都是有界的,那么一定存在一个三层神经网络几乎处处逼近,这是普通的nn。但是如果我们回到卷积神经网络,我们会发现我们的输入是一个有界信号(准确的说是满足一定分布的一族有界信号),输出也是一个有界信号,我们需要拟合的是函数族到函数族的一个变换,即存在有界函数和有界函数,其中 本身也是有界的,我们需要的是一个变换 ,这其实是一个泛函,也就是函数的函数,(如果我们把所有分辨率的32x32图像信号当成一族函数(另外,如果使用0延拓或者随机延拓,这个函数可以被当成定义在全空间上的函数),那么边缘提取正是一阶微分算子,它就是一个泛函,在图像中,它几乎是最重要的泛函,它的离散形式是sobel算子,它作用在图像上,得到边缘响应,这也是一族有界函数,响应经过限制后依然有界),
BBuf
2020-02-21
1.1K0
卷积神经网络学习路线(十六) | ICLR 2017 SqueezeNet
这是卷积神经网络学习路线的第16篇文章,介绍ICLR 2017的SqueezeNet。近些年来深层卷积网络的主要方向集中于提高网络的准确率。而对于相同的正确率,更小的CNN架构可以提供如下优势:(1)在分布式训练中,与服务器通信需求更小。(2)参数更少,从云端下载模型的数据量少。(3)更适合在FPGA等内存受限的设备上部署。基于这些优点,这篇论文提出了SqueezeNet。它在ImageNet上实现了和AlexNet相同的准确率,但是只使用了AlexNet的参数。更进一步,使用模型压缩技术,可以将SqueezeNet压缩到0.5M,这是AlexNet的。
BBuf
2020-02-13
4410
【CV中的Attention机制】并行版的CBAM-BAM模块
BAM全程是bottlenect attention module,与CBAM很相似的起名,还是CBAM的团队完成的作品。
BBuf
2020-02-12
2.3K0
卷积神经网络学习路线(十三)| CVPR2017 Deep Pyramidal Residual Networks
深度残差金字塔网络是CVPR2017年的一篇文章,由韩国科学技术院的Dongyoon Han, Jiwhan Kim发表,改善了ResNet。其改用加法金字塔来逐步增加维度,还用了零填充直连的恒等映射,网络更宽,准确度更高,超过了DenseNet,泛化能力更强。论文原文见附录。
BBuf
2020-02-12
6000
卷积神经网络学习路线(十二)| 继往开来的DenseNet
这是卷积的第十二篇文章,主要为大家介绍一下DenseNet,值得一提的是DenseNet的作者也是上一篇卷积神经网络学习路线(十一)| Stochastic Depth(随机深度网络)论文的作者,即清华的黄高。相比于里程碑式创新的ResNet来讲,DenseNet的作用或许用继往开来来形容是最合适不过了。论文原文地址见附录。
BBuf
2020-02-12
8290
卷积神经网络学习路线(十)| 里程碑式创新的ResNet
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
BBuf
2020-02-12
1K0
卷积神经网络学习路线(八)| 经典网络回顾之ZFNet和VGGNet
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
BBuf
2020-01-30
5700
卷积神经网络学习路线(七)| 经典网络回顾之AlexNet
开篇的这张图代表ILSVRC历年的Top-5错误率,我会按照以上经典网络出现的时间顺序对他们进行介绍,同时穿插一些其他的经典CNN网络。
BBuf
2019-12-24
7310
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档