开始之前,说个事情,这个公众号的发文的频率是不确定的哈,有时候我可能不方便,或者比较忙的时候,就不更新了,这几天刚开始,我写着写着还有点上瘾,哈哈,所以每天都会坚持和大家分享。非常感谢大家的关注,每天看着关注人数的增加,心里别提有多激动了,哈哈!* . *
还有个事情,就是公众号的名字,一会儿我发完消息之后就更名为:
机器学习和数学
这样看着正式一点,有木有。但以后跟新的内容,还是我觉得比较坑的地方哈,新手容易走弯路的地方。希望对大家不会造成什么影响。
从今天开始,大概会有3-5篇的文章写一下卷积神经网络的入门知识以及我觉得需要重点学习的东西。虽然随便百度一下,就会有一大把相关的博客,资料。但是我还是要讲一下,好多资料都是讲给学计算机的人听的,而我是学数学出身的,而从数学的角度把这个问题讲清楚的资料很少见。所以对于类似我这样跨专业做机器学习的人来说,刚接触神经网络这个高大上的名词的时候,总是觉得吊吊的样子,其实如果了解了一点背景知识,那学习起来会很快。
第一篇是傅里叶变换和卷积与图像滤波的知识点。傅里叶变换在本科的刚听说的时候,我是拒绝的,感觉那是很抽象的存在,现在随着理解能力慢慢提高(老了,,./哭.sh),发现并不是那么难,了解一点基本的东西,还是很容易的。其实我们每个人不都是这样么,“世上无难事,只怕有心人”,这觉不是一句空话,只要肯花时间,没有什么是学不会的。停!开始正题。
一、Fourier变换
在我看来,如果把某个东西给一个只有高中生水平的人讲不清楚,那么就是失败的。所以先来回忆一下,高中的时候我们学习的函数,函数是什么?y=f(x), 专业点就扯出了映射的概念,也就是x到y的一一映射,f叫对应法则。而下面的积分变换,说到底也是一种函数,只不过他的对应法则是一个积分。好,接下来看我们的傅里叶Fourier变化是什么鬼。教材上说,Fourier变换是一种对连续时间函数的积分变换,它通过特定形式的积分建立了函数之间的关系。用我的话来说,把“红玫瑰”变为“路易十四”就是Fourier变化。哈哈,其实这里的“红玫瑰”和“路易十四”代表了两个函数的名字而已。他们都是玫瑰花,只不过品种不一样。那“红玫瑰”怎么变为“路易十四”呢,这里给这个变化取了个数学er的名字,叫积分变化,顾名思义,通过积分把他们转换一下。但是直接积分好像太无聊了,所以数学家给“红玫瑰”搭配了一个“伴娘”,这个伴娘的名字叫“核”。所以就是“红玫瑰”+“核” ==>“路易十四”。形式化的写为:
其中“红玫瑰”叫象原函数,“路易十四”叫象函数。
用数学的语言来描述就是:
下面这个图是比较正式的定义,不再是“红玫瑰”之类的了,自行对照即可。需要说的是,下面的“伴娘”是一个指数形式,听过欧拉公式的小伙伴应该知道怎么把指数形式变为三角形式,聪明的你一定明白我的意思,这里了解即可!既然学习了Fourier变换,那顺便就把Laplace变换也了解一下,他们的区别只不过是变化之后自变量的定义域不同。但是Laplace变换在卷积神经网络里面貌似很少见,至少我还没见到哪里用了。恩,我就是说一下。
了解了Fourier变化,就引出了Fourier逆变换。其实很简单就是由“路易十四”到“红玫瑰”的变换过程。看一下定义7.1,这个不需要记的哈,重点是了解这个概念。
二、卷积
聊完了Fourier变换,接下卷积就是顺理成章了,我不打算按照一般的介绍,从频域,空域的角度,扯了一大堆。那些是做信号处理的比较擅长的,我不是特别清楚,也就不多说什么。我们学习卷积的目的是为了后面卷积神经网络服务的。所以了解概念即可。
下图来自于维基百科,f和g的卷积定义为:
f star g =积分变换{ f乘g}
我们暂且可以把 f star g 定义为 F,那么和刚才说的Fourier变换不就是一个形式了,这里的f就是“红玫瑰”,g就是“伴娘”。F就是“路易十四”。好吧,这是最后一次提“红玫瑰”,&“伴娘”&“路易十四”。
卷积讲完了,是的,讲完了。
一般理解卷积可以从数学和物理两个角度来理解,但是物理解释就比较麻烦了,啰里啰嗦一大堆东西,为什么我喜欢数学,就是因为他简洁而且有力!!!这里没有黑学物理的意思哈。。。因为我理解不了物理角度。。。(./哭.sh)。
时间不早了,图像滤波的东西还有点杂,明天再聊吧。
本文为作者原创,如有雷同,必然是别人抄我的。