浅谈小波分析

本文首先介绍了从傅里叶变换到小波变换的发展史,然后着重强调了小波变换的两种作用——时频分析多分辨率分析,最后讲了一下吉布斯效应等相关知识。

小波的发展历史与驱动

傅里叶变换

FT(傅里叶变换),通过将信号分解成正余弦函数(把三角函数当做函数空间的基),将时域信号转化为频域信号。缺点是只适用于平稳性信号,在频域图上不能获得对应频率的时间信息。

由上图可以看到,对于频域成分相同的信号,即使信号在时域上的分布不一样,FFT变换后的频域图却几乎完全一样。所以说,FFT只可以获得一段信号总体上包含哪些成分,但是对各成分出现的时间并无所知。因此时域相差很大的信号FFT之后的频域图可能完全相同。

短时傅里叶变换

STFT(短时傅里叶变换)添加时域信息的方法是设置窗格,认为窗格内的信号是平稳信号,对窗格内的信号分段进行FT分析。优点是可以获得频域信息的同时可以获得时域信息。缺点是窗格大小很难设置。

STFT的方法及效果如下图:

STFT的窗格问题如下:

由上面的图可以看到,窄窗口时间分辨率高、频率分辨率低;宽窗口时间分辨率低,频率分辨率高。对于时变的非稳态信号,高频适合小窗口,低频适合大窗口。可是STFT的窗口是固定的,因此需要寻求别的方法。

小波变换

WT(小波变换),将傅里叶变换的基给换了—— 将无限长的三角函数基换成了有限长的会衰减的小波基,这样不仅可以获取频率,还可以定位到时间

傅里叶变换

傅里叶变换,通过相互正交的三角函数信号和原信号在无穷上进行积分,积分越大表明信号越相似,包含该频率的三角信号也就越多。

最后,每一个f值对应了一个积分值,获得了频率图。

小波变换

小波变换的原理类似傅里叶变换,只是把三角函数基换成了小波基。

与傅里叶变换不同,小波变换有两个变量:scaletranslationscale控制小波函数的收缩,其导数即为频率translation控制小标函数的平移,平移量对应时间

通过信号的伸缩平移,可以得到某种重合情况,这样积分也会得到一个极大值,不同的是,得到频率成分的同时,还可以知道该频率的时间位置

最后得到的也是三维的图像:

三种变换的对比

傅里叶变换,选择正弦函数作为基函数,然后考察的到的展开式的性质。 对于小波分析,首先提出想要的性质,然后推导出基函数。

小波变换

离散小波变换

f(t)f(t)f(t)=∑j,kaj,k2j/2ψ(2jt−k)=∑j,kaj,kψj,k(t)=∑j,k⟨ψj,k,f(t)⟩ψj,k(t)

\begin{split} f(t)&=\sum_{j,k} a_{j,k} 2^{j/2}\psi(2^j t -k) \\ f(t)&=\sum_{j,k} a_{j,k} \psi_{j,k}( t ) \\ f(t)&=\sum_{j,k} \left<\psi_{j,k} ,f(t) \right> \psi_{j,k}( t ) \end{split}

连续小波变换

F(a,b)=∫f(t)w(t−ab)

F(a,b) = \int f(t) w(\frac{t-a}{b})

小波的多分辨率阐述

小波的一个思想是在时间和频率两个方面提供有效的局部化,另一个中心思想是多分辨率,即信号的分解是按照不同分辨率的细节一层一层进行的。

信号空间

L2(R)L^2(R)平方可积空间,如果函数g(t)g(t)是这个空间的元素,那么g(t)∈L2g(t) \in L^2。

尺度函数

对于二维函数族(构成空间的基底):

φj,k(t)=2j/2φ(2jt−k)

\varphi_{j,k} (t)=2^{j/2}\varphi (2^j t -k)

对于所有k∈Zk \in Z,可以张成空间:

Vj=Spank{φj,k(t)}¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯

V_j = \overline{{Span}_k \{ \varphi_{j,k}(t) \}}

如果f(t)∈Vjf(t) \in V_j,那么f(t)f(t)可以表示为:

f(t)=∑kakφ(2jt+k)

f(t) = \sum_k a_k \varphi(2^j t +k)

也就是说,f(t)f(t)可以通过VjV_j空间的一组基底表示出来,并且这个基底是可以设置的。jj越大,分辨率越高。

多分辨率分析

低分辨率上的信号,不仅可以通过该低分辨率上的信号基底组合,还可以通过高分辨率上信号的基底组合起来。

尺度函数φj,k(t)\varphi_{j,k}(t)张成了VV空间,不同VV空间的差空间WW由小波函数ψj,k(t)\psi_{j,k}(t)张成。

由下图所示:

L2=V0⊕W0⊕W1⊕...

L^2 = V_0 \oplus W_0 \oplus W_1 \oplus ...

初始空间的尺度是任意的,可以选择较高的分辨率,例如j=10j=10,则有:

L2=V10⊕W10⊕W11⊕...

L^2 = V_{10} \oplus W_{10} \oplus W_{11} \oplus ...

这样,就构造了能张成整个L2(R)L^2(R)的函数集φk(t)\varphi_k(t)和ψj,k(t)\psi_{j,k}(t)。,对任一函数g(t)∈L2(R)g(t) \in L^2(R),可以写成尺度函数和小波函数的级数展开,即:

g(t)=∑k=−∞∞c(k)φk(t)+∑j=0∞∑k=−∞∞d(j,k)ψj,k(t)

g(t)= \sum_{k=-\infty}^{\infty} c(k) \varphi_k(t) + \sum_{j=0}^{\infty} \sum_{k=-\infty}^{\infty} d(j,k) \psi_{j,k} (t)

在这个展开式中,第一个和式给出了g(t)g(t)的一个低分辨率或者粗糙的逼近,在第二个和式中,随着指标jj的增加,一个个较高的或者较细分辨率的函数不停地加入,从而加进了更多的细节信息。

多分辨率流程

  1. 选择合适的尺度基和小波基,从已有的信号中反算出系数c,dc,d。
  2. 对系数做对应处理
  3. 从处理后的系数重新构建信号

wavelet function等同于对信号做高通滤波保留变化细节,而scaling function等同于对信号做低通滤波保留平滑的形状!

其他

突变信号与吉布斯效应

吉布斯效应:

Gibbs现象是由于展开式在间断点邻域不能均匀收敛引起的,即使N趋于无穷大,这一现象仍然存在。通俗地讲,就是变化太大的时候,三角波拟合不过来,只能凑合出来个Gibbs应付应付啦。

小波与吉布斯:

小波比傅里叶拟合突变信号效果更好,还可以根据不同的需要更换小波基以获得更好的效果。

海森堡不确定原理

不确定性原理,或者叫测不准原理,最早出自量子力学,意为在微观世界,粒子的位置与动量不可同时被确定。但是这个原理并不局限于量子力学,有很多物理量都有这样的特征,比如能量和时间、角动量和角度。体现在信号领域就是时域和频域。不过更准确一点的表述应该是:一个信号不能在时空域和频域上同时过于集中;一个函数时域越“窄”,它经傅里叶变换的频域后就越“宽”。 如果有兴趣深入研究一下的话,这个原理其实非常耐人寻味。信号处理中的一些新理论在根本上也和它有所相连,比如压缩感知。如果你剥开它复杂的数学描述,最后会发现它在本质上能实现其实和不确定性原理密切相关。而且大家不觉得这样一些矛盾的东西在哲学意义上也很奇妙吗? 作者:咚懂咚懂咚 链接:https://www.zhihu.com/question/22864189/answer/40772083

降维

高维数据因为其计算代价昂贵(纬度高计算必然昂贵)和建立索引结构的困难(空间索引结构往往面临着“维度灾”),因此有对其进行数据压缩的需求,即对高维数据进行降维,傅里叶变换和小波变换都可以用来做这件事,具体说来就是,傅里叶变换用不同频率的三角函数的和去拟合原始信号,对于每个单独的三角函数,只需要记录其相位和幅度即可。信息论可以证明,对于一个长度为n的离散信号(计算机中所有的信号都肯定是离散的),可以分解为n个三角函数的线性组合,这n个三角函数的频率是按2的指数倍递增的,这两种表示方法是等价的,也就是从后者(三角函数的信息:相位、幅度)可以完美地重构出前者。而原始信号中的主要信息都集中在低频分量上,高频分量往往是噪音,因此我们可以对变换后的三角函数系数只保留其前k个系数,而忽略剩余的高频部分,这样就将数据降为了k维,由于高频大多是噪音,因此丢失信息并不多。 以上说的是傅里叶变换,小波变换也是一样的,只不过它使用的基底函数不是三角函数,而是所谓的小波函数,所谓“小波函数”是一族函数,需要满足1.均值为0;2.在时域和频域都局部化(不是蔓延整个坐标轴的),满足这两条的函数就是小波函数,有很多,最简单的是Haar Wavelet。所以小波分析或者说小波变换要做的就是将原始信号表示为一组小波基的线性组合,然后通过忽略其中不重要的部分达到数据压缩或者说降维的目的。 作者:chris sun 链接:https://www.zhihu.com/question/19725983/answer/13856998

窗口化

小波母函数ψ(x)\psi (x)必须在定义域大部分都为0,不为0的部分也是基本是有限值,这样的母函数有利于窗口化。

如果只对某一段区域有兴趣,只需要映射到只在这个区域取值非0 的小波基,而傅里叶变换做不到。这就是小波的好处,所以小波又被称为数学显微镜。

参考资料

  1. 国外很好的参考资料
  2. 知乎回答1
  3. 知乎回答2
  4. 小波变换和motion信号处理 一
  5. 小波变换和motion信号处理 二
  6. 小波与小波变换导论

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI研习社

来吧!带你漫游 Wasserstein GAN 的世界!

前言 上次带大家写了原始版的 GAN,只生成了高斯分布。但兔子哥哥发现在 GAN 论文的底下,有 GAN 生成图片的 example。 ? 因此,这足以说明...

3714
来自专栏新智元

【资源】17个最受欢迎的机器学习应用标准数据集

【新智元导读】学好机器学习的关键是用许多不同的数据集来实践。本文介绍了10个最受欢迎的标准机器学习数据集和7个时间序列数据集,既有回归问题也有分类问题,并提供了...

56014
来自专栏新智元

【邓侃】DeepMind 机器理解文本 NLP 技术复现与解析

【新智元导读】 本文对 DeepMind 的让计算机读懂文本、回答问题的深度学习技术进行复现与解析。文章对DeepMind的整个技术思路进行了清晰的重构:从问...

2956
来自专栏SIGAI学习与实践平台

K近邻算法

原创声明:本文为 SIGAI 原创文章,仅供个人学习使用,未经允许,不得转载,不能用于商业目的。

1031
来自专栏专知

【干货】RL-GAN For NLP: 强化学习在生成对抗网络文本生成中扮演的角色

【导读】本文全面系统性梳理介绍了强化学习用于发掘GAN在NLP领域的潜力,请大家阅读。 专知公众号转载已获知乎作者SCUT 胡杨授权。 原文地址:https:/...

1.3K7
来自专栏机器学习算法与Python学习

距离和相似性度量在机器学习中的使用统计

作者:daniel-D 来源:http://www.cnblogs.com/daniel-D/p/3244718.html 在机器学习和数据挖掘中,...

3473
来自专栏机器之心

学界 | 提升DNN参数准确度:MILA提出贝叶斯超网络

选自arXiv 机器之心编译 参与:蒋思源、李泽南 深度神经网络(DNN)参数中简单而强大的贝叶斯推理(Bayesian inference)技术有可能大大扩展...

2758
来自专栏机器之心

开发者必读:计算机科学中的线性代数

3217
来自专栏SIGAI学习与实践平台

学好机器学习需要哪些数学知识?

“ 随机过程,实分析。机器学习往深里做肯定需要用这种,高级的数学语言去对问题进行描述。我本人对随机和实分析,其实目前也还只是略懂,很难说,真正的彻底掌握这两门十...

673
来自专栏丁科的专栏

基于 boosting 原理训练深层残差神经网络

介绍一种基于提升理论的训练深度模型的新方法。基于 boosting(提升)原理,逐层训练深度残差神经网络的方法,并对性能及泛化能力给出了理论上的证明。

5230

扫码关注云+社区