Vehicle Logo Recognition System Based on Convolutional Neural Networks With a Pretraining Strategy

论文笔记Ⅰ 基于卷积神经网络的车辆标记识别系统

考虑文章中一些语法以及用词还挺好,先记录一下,留下来以后可能用到自己的paper中。

Abstract

由于车辆的标志是一辆车品牌最明显的指标,大多数汽车品牌识别(VMR) 都是基于车辆标志识别的方法。在本文中,提出了一个卷积神经网络(CNN)系统,消除了VMR精确标识检测和分割的要求。另外一个有效预训练策略被用来降低内核训练的高计算成本。数据集包含11500车辆标志图像并且被分为10类,其中10000用来训练和1500用来进行测试。最终的到的平均准确率为99.07%。 说明:其中两点是不同于lenet5网络结构的,第一个就是如何从一个复杂的大图像中分割和检测出车标,得到最终输入到卷积神经网络的图像;第二个就是有效的预训练——PCA是如何处理,来提高了准确率以及降低训练样本的时间。

Introduction

引言中指出了paper的两个点: ①a PCA-based pretraining strategy(PCA预处理) ②a coarse segmentation approach(粗分割)

(a)从监控系统中捕获到完整的车辆图像 (b)然后检测到图像的车标部分 (c)和(d)蓝色方框代表之前的精确检测(LPL)获得的区域,在图中明显发现蓝色方框未能准确框住大众车标,本文提出的粗分割其实就是检测到一个更大的区域,如图所示红色方框表示本文方法框住车标部分。 说明:①本文选取的车辆都是常见车辆,没有把SUV等一些车辆加入到数据集中,(SUV车标太大) ②车牌定位(License Plate Location,LPL) 系统,LPL 系统将输出车牌的角点坐标, 根据这四个坐标我们就可以得到其上方含有车标的一个大致区域。其参考文献:

Psyllos A P, Anagnostopoulos C N E, Kayafas E. Vehicle Logo Recognition Using a Sift-Based Enhanced Matching Scheme[J].

Framwork of Logo-based VMR

一 粗分割 主要就是上述引言中提到的LPL系统,个人认为这也是区域检测,和region detection有什么区别呢?是否可以使用这个LPL,用于自己数据集的区域检测呢? 二 预训练 文中谈到:The procedure used in (7) and(8) happens to be the same as PCA 那就先回顾一下PCA(主成分分析): 主成分分析与白化是在做深度学习训练时最常见的两种预处理的方法,主成分分析是一种我们用的很多的降维的一种手段,通过PCA降维,我们能够有效的降低数据的维度,加快运算速度。而白化就是为了使得每个特征能有同样的方差,降低相邻像素的相关性。 主成分分析(PCA)的原理就是将一个高维向量x,通过一个特殊的特征向量矩阵U,投影到一个低维的向量空间中,表征为一个低维向量y,并且仅仅损失了一些次要信息。也就是说,通过低维表征的向量和特征向量矩阵,可以基本重构出所对应的原始高维向量。 ① yij=wi ⊗ xj 第i个卷积核和第j张训练图片做卷积,为了得到y和x的尺寸一样大小则需要对x进行0填充 ②Y ij = WTi Xj 预训练的目的是找到核函数能够以最小的误差重建出输入图像。

同PCA白化处理差不多

Experimental Results

有三个疑问(忘知道的博友私信我): 首先按照文中的第二个卷积层的kernel size大小为21*21,卷积核如此大对结果有没有什么影响?还有就是为什么不加个卷积池化层? 其次最后的结果提高了1个百分点,PCA预训练到底对结果的正确率影响多大?提高的正确率是不是因为粗分割,把那些错位的车标识别出来了呢?

接下来 就是测试本文模型的鲁棒性,在其它数据集上进行测试

给个主成分分析(PCA)算法介绍的链接: http://www.cnblogs.com/liu-jun/archive/2013/03/20/2970132.html

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能LeadAI

最全算法工程师面试题目整理(一)

1 基于每日用户搜索内容,假设只有少量已知商品的情况下,如何根据用户搜索内容获取平台内没有的新商品? ? ? 答案:这是一条类似于分词“新词获取问题”,答案是...

3896
来自专栏机器学习之旅

总结:常见算法工程师面试题目整理(一)

最近抽风,出去面试了不少公司,和不少算法工程师招聘的朋友有所交流,整理了相关比较有意思的题目,供大家参考:

873
来自专栏专知

春节充电系列:李宏毅机器学习笔记13之无监督学习:主成分分析(PCA)

【导读】我们在上一节的内容中已经为大家介绍了台大李宏毅老师的机器学习课程的半监督学习,这一节将主要针对讨论无监督学习:主成分分析(PCA)。本文内容涉及机器学习...

47816
来自专栏月色的自留地

图像识别基本算法之SURF

2828
来自专栏数据派THU

各类机器学习问题的最优结果合集!附论文及实现地址索引

来源:中国大数据 本文为你介绍RedditSota 统计的各种机器学习任务的最顶级研究成果(论文)。 该 GitHub 库提供了所有机器学习问题的当前最优结果,...

3766
来自专栏人工智能LeadAI

为什么ResNet和DenseNet可以这么深? | 一文详解残差块为何能解决梯度弥散问题

传统的“提拉米苏”式卷积神经网络模型,都以层叠卷积层的方式提高网络深度,从而提高识别精度。但层叠过多的卷积层会出现一个问题,就是梯度弥散(Vanishing),...

3427
来自专栏AI科技评论

开发 | 为什么ResNet和DenseNet可以这么深?一文详解残差块为何有助于解决梯度弥散问题。

AI科技评论按:本文作者Professor ho,原文载于其知乎主页,雷锋网获其授权发布。 传统的“提拉米苏”式卷积神经网络模型,都以层叠卷积层的方式提高网络深...

4125
来自专栏人工智能LeadAI

TensorFlow从0到1丨第十六篇 L2正则化对抗“过拟合”

前面的第十四篇 交叉熵损失函数——防止学习缓慢和第十五篇 重新思考神经网络初始化从学习缓慢问题入手,尝试改进神经网络的学习。本篇讨论过拟合问题,并引入与之相对的...

34212
来自专栏AI研习社

计算机视觉中,有哪些比较好的目标跟踪算法?(下)

相信很多来这里的人和我第一次到这里一样,都是想找一种比较好的目标跟踪算法,或者想对目标跟踪这个领域有比较深入的了解,虽然这个问题是经典目标跟踪算法,但事实上,可...

7306
来自专栏null的专栏

简单易学的机器学习算法——主成分分析(PCA)

一、数据降维        对于现在维数比较多的数据,我们首先需要做的就是对其进行降维操作。降维,简单来说就是说在尽量保证数据本质的前提下将数据中的维数降低。降...

3395

扫码关注云+社区