首页
学习
活动
专区
工具
TVP
发布

GiantPandaCV

专栏作者
701
文章
869809
阅读量
96
订阅数
IJCAI21 对比自蒸馏实现超分模型的加速
Towards Compact Single Image Super-Resolution via Contrastive Self-distillation 利用对比自蒸馏实现超分加速 (IJCAI 2021)原创论文解读,首发于GiantPandaCV公众号,禁止其他任何形式的转载!
BBuf
2022-02-11
8000
DeepFake系列之FakeSpotter
今天给大家解读的是最近一篇关于Deepfake检测的论文,出自阿里巴巴,小米AI lab联合出品的FakeSpotter,由于以往的Deepfake检测网络鲁棒性并不高,这篇文章探讨一个更简单的方式,增强网络的鲁棒性。
BBuf
2020-06-11
5060
MXNet源码解读笔记1 ---- 如何解析参数文件
本文主要内容是解读MXNet加载并解析模型参数文件所涉及到的代码,希望读者读完本文能对MXNet参数文件的存储格式有比较清晰的了解,并可以自己来实现参数文件的解析。
BBuf
2020-04-29
8690
深度学习算法优化系列二十二 | 利用TensorRT部署YOLOV3-Tiny INT8量化模型
上一节深度学习算法优化系列二十一 | 在VS2015上利用TensorRT部署YOLOV3-Tiny模型 分享了使用TensorRT在GPU上部署FP32的YOLOV3-Tiny模型,这一节继续分享一下如何部署INT8的YOLOV3-Tiny模型。
BBuf
2020-04-15
1.6K0
深度学习算法优化系列二十 | TensorRT 如何进行细粒度的Profiling
今天我将以GoogleNet为例来展示如何在TensorRT中实现细粒度的Profiling并且顺带介绍一下TensorRT的16Bit推理。
BBuf
2020-03-19
3K0
卷积神经网络学习路线(十六) | ICLR 2017 SqueezeNet
这是卷积神经网络学习路线的第16篇文章,介绍ICLR 2017的SqueezeNet。近些年来深层卷积网络的主要方向集中于提高网络的准确率。而对于相同的正确率,更小的CNN架构可以提供如下优势:(1)在分布式训练中,与服务器通信需求更小。(2)参数更少,从云端下载模型的数据量少。(3)更适合在FPGA等内存受限的设备上部署。基于这些优点,这篇论文提出了SqueezeNet。它在ImageNet上实现了和AlexNet相同的准确率,但是只使用了AlexNet的参数。更进一步,使用模型压缩技术,可以将SqueezeNet压缩到0.5M,这是AlexNet的。
BBuf
2020-02-13
4180
《ICNet》论文阅读及源码实现
香港中文大学,腾讯优图,商汤科技联合发表的一篇用于语义分割的论文。ICNet是一个基于PSPNet的实时语义分割网络,设计目的是减少PSPNet推断时期的耗时,论文对PSPNet做了深入分析,在PSPNet的基础上引入级联特征融合模块,实现快速且高质量的分割模型。论文报告了在Cityscape上的表现。关于PSPNet请看昨天的推文。
BBuf
2019-12-09
1.3K0
没有更多了
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档