前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >最优方向法(MOD)

最优方向法(MOD)

作者头像
卡尔曼和玻尔兹曼谁曼
修改2019-02-06 06:29:32
8010
修改2019-02-06 06:29:32
举报

算法描述

求解模型:

\min\sum\limits_i\|x_i\|_0 \quad \mathrm{s.t.} \; \|Y-DX\|^2_F \leq \varepsilon

\min\|Y-DX\|^2_F \quad \mathrm{s.t.} \; \sum\limits_i\|x_i\|_0 \leq T_0

MOD(Method of Optimal Direction)是早期的基于样本学习的字典学习算法. 设目标函数中$X$已知,信号的误差定义如下:

\|E\|^2_F = \|Y - DX\|^2_F

MOD算法更新字典的策略就是实现表征误差最小化,所以公式两端针对$D$求偏导,会推到出(Y - DX)X^{\mathrm{T}} = 0,整个字典的更新过程如下:

D^{n + 1} = Y (X^n)^{\mathrm{T}} \cdot (X^n(X^n)^{\mathrm{T}})^{-1}

一般MOD算法需要几十次迭代即可收敛是一个比较可行的方法。缺点在于运算中需要对矩阵求逆,造成计算量过大.

流程描述

输入:训练样本集X = \{x_i\}^N_{i=1}

输出:字典D \in \mathbb{R}^{n \times m} (m > n)

初始化:随机构造一个字典初值D^{(0)} \in \mathbb{R}^{n \times m},并进行列归一化,迭代次数J=1

循环直到满足迭代终止条件

  1. 求解稀疏系数:\min\sum\limits_i\|x_i\|_0 \quad \mathrm{s.t.} \; \|Y-DX\|^2_F \leq \varepsilon
  2. 更新字典:D^{J+1}=\arg\min \|Y - DX\|^2_F = D^{n + 1} = Y (X^n)^{\mathrm{T}} \cdot (X^n(X^n)^{\mathrm{T}})^{-1}
  3. J=J+1

迭代结束

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年10月19日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 算法描述
  • 流程描述
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档