前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >第一弹CVPR 2021 | 多分辨率蒸馏的异常检测

第一弹CVPR 2021 | 多分辨率蒸馏的异常检测

作者头像
机器学习炼丹术
发布于 2022-11-22 07:24:53
发布于 2022-11-22 07:24:53
4270
举报
  • 文章转自微信公众号:机器学习炼丹术
  • 作者:陈亦新(欢迎交流共同进步)
    • 1 概述
    • 2 损失函数

1 概述

  • 2021年CVPR论文
  • 论文链接:https://arxiv.org/pdf/2011.11108.pdf
  • 代码链接:https://github.com/Niousha12/Knowledge_Distillation_AD

当前无监督表示学习Unsupervised representation learning已经成为当前图像异常检测/定位的重要部分,这种学习表示法具有两方面的挑战:

  1. 样本量通常不够大,无法通过传统技术学习到丰富的可泛化表示(a rich generalizable representation);
  2. 虽然训练中只有正常样本,但是需要学习到的特征应该可以区分正常和异常样本(be discriminative of normal and anomalous samples).

研究方法提出,基于以上的情况,作者提出使用在ImageNet上预训练的专家网络VGG16的各个层的特征distillation蒸馏到一个更简单的克隆网络中解决这两个问题。作者使用给定输入数据的专家和克隆网络的中间激活值之间的差异来检测和定位异常。

那么如何在没有异常数据的情况下,来识别到异常样本呢?其实这里用了一个trick。整个训练是一个从source network向cloner network蒸馏的过程。source network是一个imagenet预训练的模型,而cloner network是一个完全随机初始化的模型。现在我们用正常样本进行蒸馏学习,这样cloner network在正常样本上与source network的认知是一致的。那么假设来了一个异常样本,source network因为看到的图像更多,经验更丰富,所以对于异常样本的反应,肯定与cloner network(一个只见过正常样本的模型)的反应不同。因此这个时候,通过观测两者的激活值的不同,就可以确认出异常的区域位置。

2 损失函数

损失函数包含两个部分:

其中第一部分如下:

Lval

的目标是最小化source network和cloner network的激活函数值的欧式距离。CP表示critical layer。

相当于每一个关键层都进行蒸馏的学习模仿。(student 模仿 teacher)

第二部分Ldir 来增加activation vectors的directional similarity,因为相同欧式距离的两个向量可能会产生不同的行为在后续的神经元影响下。作者还举了一个简单的例子:

总之第二部分损失函数公式为:

这里留一个问题:vec()这个函数是把特征图转化1-D特征的方法。论文中没有具体说明,这个如何实现要从代码中来学习。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-08-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习炼丹术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
标签正则:标签平滑、标签蒸馏和自纠正的异曲同工之妙
正则化主要包括标签正则、数据正则、参数正则等,可以限制网络权重过大、层数过多,避免模型过于复杂,是解决过拟合问题的重要方法。标签正则通过某种方式构建soft label,用于模型学习,以缓解hard label的诸多问题,提升模型的泛化能力。
枫桦
2022/08/02
8480
标签正则:标签平滑、标签蒸馏和自纠正的异曲同工之妙
【AI系统】知识蒸馏原理
本文将介绍知识蒸馏(Knowledge Distillation, KD)的原理,这是一种通过从大型的教师模型向小型的学生模型转移知识来实现模型压缩和优化的技术。知识蒸馏的核心思想是利用教师模型在大量数据上积累的丰富知识,通过特定的蒸馏算法,使学生模型能够学习并吸收这些知识,从而达到与教师模型相似的性能。
用户11307734
2024/12/05
2510
ICCV 2019 提前看 | 三篇论文,解读神经网络压缩
神经网络压缩方向是目前深度学习研究的一个热门的方向,其主要的研究方向是压缩,蒸馏,网络架构搜索,量化等。在 ICCV2019 中,不少的研究单位和学者都发表了神经网络压缩方向的论文。本文主要以其中三篇论文来研究神经网络压缩的目前发展趋势。
机器之心
2019/10/24
7220
关于知识蒸馏,这三篇论文详解不可错过
导语:继《从Hinton开山之作开始,谈知识蒸馏的最新进展》之后,作者对知识蒸馏相关重要进行了更加全面的总结。在上一篇文章中主要介绍了attention transfer,FSP matrix和DarkRank,关注点在于寻找不同形式的“知识”。
AI科技大本营
2019/07/30
3.9K0
关于知识蒸馏,这三篇论文详解不可错过
【CV】CVPR2020丨SPSR:基于梯度指导的结构保留超分辨率方法
授权转载自 | https://zhuanlan.zhihu.com/p/121721537
黄博的机器学习圈子
2021/01/11
7960
【CV】CVPR2020丨SPSR:基于梯度指导的结构保留超分辨率方法
自监督学习新思路!基于蒸馏损失的自监督学习算法 | CVPR 2021
AI 科技评论 今天给大家介绍一篇被 CVPR 2021 收录的关于自监督的文章——S2-BNN [1],论文作者来自 CMU,HKUST 和 IIAI。
AI科技评论
2021/07/27
8920
自监督学习新思路!基于蒸馏损失的自监督学习算法 | CVPR 2021
异常检测 DDAD
DDAD 是 2024 年以前 MVTec AD 数据集上性能最好的异常检测模型,本文解读相关论文并对源码进行解读
为为为什么
2024/01/11
1.8K1
异常检测 DDAD
从Hinton开山之作开始,谈知识蒸馏的最新进展
蒸馏可以提供student在one-shot label上学不到的soft label信息,这些里面包含了类别间信息,以及student小网络学不到而teacher网络可以学到的特征表示‘知识’,所以一般可以提高student网络的精度。
AI科技大本营
2019/07/30
1.8K0
从Hinton开山之作开始,谈知识蒸馏的最新进展
异常检测 EfficientAD
常用的异常检测特征提取网络都是 ImageNet 预训练的 backbone, 典型的是 WideResNet-101, 文章使用四次卷积的网络作为特征提取器
为为为什么
2024/01/09
1.6K1
异常检测 EfficientAD
GID:旷视提出全方位的检测模型知识蒸馏 | CVPR 2021
论文: General Instance Distillation for Object Detection
VincentLee
2022/07/01
7080
GID:旷视提出全方位的检测模型知识蒸馏 | CVPR 2021
微软亚研院提出用于语义分割的结构化知识蒸馏 | CVPR 2019
今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文《Structured Knowledge Distillation for Semantic Segmentation》,通讯作者单位为微软亚洲研究院。
AI科技大本营
2019/03/19
2K0
微软亚研院提出用于语义分割的结构化知识蒸馏 | CVPR 2019
RS Meet DL(62)-[阿里]电商推荐中的特殊特征蒸馏
今天介绍的论文是:《Privileged Features Distillation for E-Commerce Recommendations》 论文下载地址为:https://arxiv.org
石晓文
2019/08/28
1.9K0
RS Meet DL(62)-[阿里]电商推荐中的特殊特征蒸馏
加利福尼亚大学(尔湾)等提出 Nasty Teacher,避免模型“被蒸馏”,加强知识产权保护(ICLR 2021)
本文分享ICLR 2021论文『Undistillable: Making A Nasty Teacher That CANNOT teach students』,提出一种防止模型被蒸馏窃取的Nasty Teacher,为知识产权的保护提供了一种新思路。
CV君
2022/03/23
2950
加利福尼亚大学(尔湾)等提出 Nasty Teacher,避免模型“被蒸馏”,加强知识产权保护(ICLR 2021)
微软亚研提出TinyMIM,用知识蒸馏改进小型ViT
掩码建模(MIM, MAE)被证明是非常有效的自监督训练方法。然而,如图 1 所示,MIM 对于更大的模型效果相对更好。当模型很小的时候(比如 ViT-T 5M 参数,这样的模型对于现实世界非常重要),MIM 甚至可能一定程度上降低模型的效果。比如用 MAE 训练的 ViT-L 比普通监督训练的模型在 ImageNet 上的分类效果提升 3.3%,但是用 MAE 训练的 ViT-T 比普通监督训练的模型在 ImageNet 上的分类效果降低了 0.6%。
机器之心
2023/09/08
2720
微软亚研提出TinyMIM,用知识蒸馏改进小型ViT
“烘焙”ImageNet:自蒸馏下的知识整合
最先进的知识蒸馏算法发现整合多个模型可以生成更准确的训练监督,但需要以额外的模型参数及明显增加的计算成本为代价。为此,我们提出了一种新颖的“烘焙”算法,有效整合同批次内不同样本间的知识以优化软标签,仅需一个网络即可实现知识整合。
CV君
2021/06/08
8150
“烘焙”ImageNet:自蒸馏下的知识整合
RMIT&阿里&UTS&中山提出Target-aware Transformer,进行one-to-all知识蒸馏!性能SOTA
本文分享 CVPR 2022 Oral 的一篇论文『Knowledge Distillation via the Target-aware Transformer』,由RMIT&阿里&UTS&中山提出Target-aware Transformer,进行one-to-all知识蒸馏!性能SOTA!
CV君
2022/09/01
5360
RMIT&阿里&UTS&中山提出Target-aware Transformer,进行one-to-all知识蒸馏!性能SOTA
ECCV 2020 | 自监督任务辅助的知识蒸馏
本文介绍了一种利用自监督任务辅助知识蒸馏的方法:Knowledge Distillation Meets Self-Supervision [1]. 这篇文章(以下简称SSKD)来自香港中文大学和南洋理工大学,被ECCV 2020接收。
CV君
2020/07/17
1.6K0
ECCV 2020 | 自监督任务辅助的知识蒸馏
知识蒸馏(Knowledge Distillation)
本文主要罗列与知识蒸馏相关的一些算法与应用。但首先需要明确的是,教师网络或给定的预训练模型中包含哪些可迁移的知识?基于常见的深度学习任务,可迁移知识列举为:
全栈程序员站长
2022/07/01
2.8K0
知识蒸馏(Knowledge Distillation)
知识蒸馏怎么用?召回-粗排篇
其实,知识蒸馏在召回-粗排-精排这三个模块都有用武之地,今天我们就来讲讲在粗排和召回中的应用。
NewBeeNLP
2022/06/06
1.6K0
知识蒸馏怎么用?召回-粗排篇
知识蒸馏系列(二):知识蒸馏的迁移学习应用
知识蒸馏系列文章继续更新啦!在上一篇文章中,我们介绍了三类基础知识蒸馏算法,今天我们一起来学习知识蒸馏的迁移学习应用。
OpenMMLab 官方账号
2022/12/30
1.3K0
知识蒸馏系列(二):知识蒸馏的迁移学习应用
推荐阅读
相关推荐
标签正则:标签平滑、标签蒸馏和自纠正的异曲同工之妙
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文