Loading [MathJax]/jax/output/CommonHTML/jax.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >匹配追踪算法(MP)简介

匹配追踪算法(MP)简介

作者头像
卡尔曼和玻尔兹曼谁曼
修改于 2019-02-05 22:53:36
修改于 2019-02-05 22:53:36
3.2K0
举报

图像的稀疏表征

分割原始图像为若干个的块. 这些图像块就是样本集合中的单个样本. 在固定的字典上稀疏分解后,得到一个稀疏向量. 将所有的样本进行表征一户,可得原始图像的稀疏矩阵. 重建样本时,通过原子集合即字典中少量元素进行线性组合即可:

其中,上的分解系数,也称为稀疏系数.

字典矩阵中的各个列向量被称为原子(Atom). 当字典矩阵中的行数小于甚至远小于列数时,即,字典是冗余的。所谓完备字典是指原子可以张成纬欧式空间. 如果在某一样本在一过完备字典上稀疏分解所得的稀疏矩阵含有大量的零元素,那么该样本就可以被稀疏表征,即具有稀疏性。一般用$l_0$范数作为稀疏度量函数,图像的稀疏表征数学模型如下:

稀疏表征不仅具有过完备性,还应该具有稀疏性。对于一个过完备字典,为了可以分解出更合适且稀疏的稀疏表征,应当含有更多的原子。

在稀疏表征理论方面的研究主要可分为两个方面:字典的构建和稀疏编码.

稀疏编码的目标就是在满足一定的稀疏条件下,通过优化目标函数,获取信号的稀疏系数. 经典的算法有匹配追踪(Matching Pursuit,MP)、正交匹配追踪(Orthogonal Matching Pursuit,OMP)、基追踪(Basis Pursuit,BP)算法等.

MP算法是稀疏表征中用于稀疏求解的最基本方法之一. 我在学习过程中参考网上一些资料,觉得大部分写得比较理论化,看起来稍微吃力一些. 阅读了Koredianto Usman的Introduction to Matching Pursuit(MP)一文,我觉得这篇文章写得很不错,从实例出发,很好接. 这篇博文是我对该文章翻译的基础上而写的.

注:

  1. 原文中有一些小错误,我在译文中进行了修改. 有对照原文阅读的同学,若发现有不一致,请不要奇怪.
  2. 所有计算结果都保留两位小数.

问题提出

考虑下面一个简单例子:

给定稀疏信号

字典矩阵A为:

(注:原文中称为measurement matrix)

所以,

现在,给定,

如何求得$x$呢?

匹配追踪

在上面的列子中中的列向量称之为Basis(基)或者Atoms(原子). 所以,我们有如下原子:

因为,如果我们令.

是原子的线性组合

从上面的方程可以看出,值的贡献最大,然后是,最后是. 匹配追踪算法刚好逆方向进行计算:我们首先从中选出对值贡献最大的,然后从差值(residual)中选出贡献次大的,以此类推.

而贡献值的计算通过内积(点积)进行计算,MP算法步骤如下:

  1. 选择对值贡献最大的原子
  2. 计算差值 (注:该公式在原文中稍微有点问题,这里做了修正. 对于
  3. 选择剩余原子中与内积最大的
  4. 重复步骤2和3,直到差值小于给定的阈值(稀疏度)

下面进行实例计算:

首先,分别计算的内积:

取绝对值以后,我们可以发现得到最大的内积值. 然后,在第一步中我们选择. 接下来计算差值:

接来下,计算差值和的内积:

取绝对值以后,值的贡献最大。

接下来,计算差值

最后,计算的内积:

所以,最后的三个稀疏稀疏是

这和准确的系数很接近

反酸回去,和给定的也很接近.

MP算法实质

从下面的图,我们可以很清楚地看到MP算法的实质:就是利用原子向量的线性运算去逐渐去逼近信号向量,经过不停地迭代,最后达到给定的稀疏度.

匹配追踪算法可以直接得到信号稀疏性的表达. 以贪婪迭代的方法选择$\mathrm{D}$的列,使得在每次迭代的过程中所选择的列与当前冗余向量最大程度的相关.

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017年10月11日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
正交匹配追踪
这篇博文是在对Koredianto Usman《Introduction to Orthogonal Matching Pursuit》文章的翻译,后面附带了一些总结.
卡尔曼和玻尔兹曼谁曼
2023/12/01
2580
正交匹配追踪
【数据挖掘】神经网络 后向传播算法 ( 线性回归与逻辑回归 | 单个神经元本质及逻辑 | 神经网络每一层分析 | 神经网络矩阵形式 | 线性变换与非线性变换 )
, 自变量和因变量之间的关系是一条直线 , 叫做一元线性回归分析 ; 如果有多个自变量 , 自变量与因变量是线性关系 , 叫做多远线性回归分析 ;
韩曙亮
2023/03/27
3590
【数据挖掘】神经网络 后向传播算法 ( 线性回归与逻辑回归 | 单个神经元本质及逻辑 | 神经网络每一层分析 | 神经网络矩阵形式 | 线性变换与非线性变换 )
【专题】公共数学_多元函数极值专题
解决该类问题的思路也很简单,直接沿用我们在 一元函数 中的手段:通过 驻点 找 极值点
一只野生彩色铅笔
2022/09/20
1.7K0
【机器学习基础】机器学习的数学基础
  作为一门以数据及其模型为研究对象的学科,优化模型、分析模型性能等都需要数学手段的帮助。和其他学科一样,数学可以帮我们更清晰地描述和理解机器学习算法,也可以从理论上证明算法的有效性,是机器学习中必不可少的一环。本文将会介绍机器学习中常用的数学工具,为后面的学习打下基础。
Francek Chen
2025/01/23
1410
【机器学习基础】机器学习的数学基础
【机器学习的基本思想】模型优化与评估
  在前几篇文章中,我们介绍了k近邻算法和线性回归两个基本的机器学习模型。或许已经注意到,除了模型本身以外,要训练一个好的机器学习模型,还有许多需要注意的地方。例如,我们将数据集分为训练集和测试集,在前者上用不同参数训练,再在后者上测试,以选出效果最好的模型参数。此外,在线性回归一文中,我们还对数据集做了预处理,把每个特征下的数据分别做归一化,放缩到同一数量级上。诸如此类的细节在机器学习中还有很多,它们虽然本身和算法关系不大,但对模型最终效果的好坏又有着至关重要的影响,而把握好这些细节的前提是深入理解机器学习的基本思想。本文就来讲解这些机器学习模型的基本思想。
Francek Chen
2025/01/22
690
【机器学习的基本思想】模型优化与评估
有限元 | 弹性支座
fem178
2024/04/10
1420
有限元 | 弹性支座
Markov与HMM
马尔可夫模型(Markov Model)和回归、分类那些处理相互独立的样本数据的模型不同,它用于处理时间序列数据,即样本之间有时间序列关系的数据。Markov最核心的思想是:"当前状态只与上一时刻状态有关,而与之前其它任何时刻的状态都无关"。我个人觉得这是Markov最大的问题,至于为什么,放在文章后面。下面先举个例子具体讲解一下Markov模型
mathor
2020/02/25
6170
结构光之相移法+多频外差的数学原理推导
对于每个像素点 ,其含有 3 个未知数()。而 步相移条纹可以构建 个方程,理论上说,当 时方程就有唯一解。但是通常我们会选取 形成超定方程,从而使得方程解更稳定。
3D视觉工坊
2023/04/29
1.6K0
结构光之相移法+多频外差的数学原理推导
矩阵分析复习题
设\alpha为线性空间V(\mathbb{F})中非零向量,若\mathbb{F}中数k_1与k_2不相等,试证:k_1\alpha\neq k_2\alpha
mathor
2021/04/02
1.6K0
DPN: 考虑用户行为模式的点击率(CTR)预估方法
本文方法主要针对ctr预估中的用户行为建模提出相应的模型,用户交互历史包含了不同的行为模式,反映用户的习惯性范式。本文所提方法利用用户行为模式,将目标注意力(TA)机制扩展到目标模式注意力(TPA)机制,以对行为模式之间的依赖关系进行建模。
秋枫学习笔记
2024/04/30
3730
DPN: 考虑用户行为模式的点击率(CTR)预估方法
压缩感知重构算法之压缩采样匹配追踪(CoSaMP)
本文介绍了基于压缩感知的信号重构方法,包括观测矩阵的构建、正交匹配追踪(OMP)算法、变分自编码器(VAE)和最小二乘法等。这些方法旨在解决信号重构问题中的稀疏性、噪声干扰和信号恢复等问题,具有较好的应用前景。
闪电gogogo
2018/01/08
2.5K0
压缩感知重构算法之压缩采样匹配追踪(CoSaMP)
基追踪及其实现
\min \|\alpha\|_1 \quad \mathrm{s.t.} \; \Phi\alpha = s
卡尔曼和玻尔兹曼谁曼
2019/01/22
1K0
基追踪及其实现
CAN:借助数据分布提升分类性能
本文将介绍一种用于分类问题的后处理技巧(Trick),出自EMNLP 2021 Findings的一篇论文《When in Doubt: Improving Classification Performance with Alternating Normalization》。经过实测,CAN(Classification with Alternating Normalization)确实多数情况下能提升多分类问题的效果(CV、NLP通用),而且几乎没有增加预测成本,因为它仅仅只是对预测结果的重新归一化操作
mathor
2021/10/29
7720
CAN:借助数据分布提升分类性能
张量分解与应用-学习笔记[01]
未来将以张量如何切入深度学习及强化学习领域等方面进行研究和探讨。希望这个长篇能够坚持下去。
LyWang
2019/12/14
3.2K0
张量分解与应用-学习笔记[01]
稀疏分解中的MP与OMP算法
本文介绍了稀疏表示、匹配追踪(MP)和正交匹配追踪(OMP)算法,以及它们在压缩感知、信号重构和机器学习等领域的应用。
闪电gogogo
2018/01/08
5.9K0
稀疏分解中的MP与OMP算法
Latex数学公式符号编写大全
LaTeX是一种标记语言,主要用于创建高质量的学术文档,特别是数学、物理和计算机科学领域的文档。它基于TeX排版系统,由美国数学家Donald E. Knuth开发。在LaTeX中,你可以轻松地编写复杂的数学公式,并控制文档的布局和样式。
皮大大
2023/08/29
2.2K0
图解机器学习 | 降维算法详解
教程地址:http://www.showmeai.tech/tutorials/34
ShowMeAI
2022/03/11
1.2K0
图解机器学习 | 降维算法详解
Transformers是SSMs:通过结构化状态空间对偶性的广义模型和高效算法(一)
尽管Transformer一直是深度学习在语言建模中取得成功的主要架构,但最近的研究表明,如Mamba之类的状态空间模型(SSMs)在小到中等规模上能够匹敌或超越Transformer的性能。我们表明,这两类模型实际上是非常相关的,并在一个经过充分研究的结构化半可分离矩阵类的各种分解之间,发展出SSM和注意力变体之间丰富的理论联系框架。我们的状态空间对偶性(SSD)框架使我们能够设计一种新的架构(Mamba-2),其核心层是对Mamba的选择性SSM的改进,速度提高了2-8倍,同时在语言建模方面继续与Transformer保持竞争力。
AI浩
2024/10/22
2620
Transformers是SSMs:通过结构化状态空间对偶性的广义模型和高效算法(一)
WSDM'23 | CL4CTR:用于CTR预测的对比学习框架
现有点击率建模忽略了特征表征学习的重要性,例如,为每个特征采用简单的embedding层,这导致了次优的特征表征,从而降低了CTR预测性能。例如,在许多CTR任务中占大多数特征的低频特征在标准监督学习设置中较少被考虑,导致次优特征表示。本文引入了自监督学习来直接生成高质量的特征表征,并提出了一个模型不可知的CTR对比学习(CL4CTR)框架,该框架由三个自监督学习信号组成,以规范特征表征学习:对比损失、特征对齐和域一致性。对比模块首先通过数据增强构造正特征对,然后通过对比损失最小化每个正特征对的表征之间的距离。特征对齐约束迫使来自同一域的特征的表征接近,而域一致性约束迫使来自不同域的特征表征远离。
秋枫学习笔记
2023/01/30
9930
KaTeX 数学符号列表[通俗易懂]
KaTeX 是一个快速,易于使用的JavaScript库,用于在Web上进行TeX数学渲染。 KaTeX兼容所有主流浏览器,包括Chrome,Safari,Firefox,Opera,Edge和IE 9-11。 KaTeX支持很多(但不是全部)LaTeX语法和许多LaTeX软件包。
全栈程序员站长
2022/11/17
2.6K0
推荐阅读
相关推荐
正交匹配追踪
更多 >
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文