首页
学习
活动
专区
工具
TVP
发布

机器学习和数学

专栏作者
68
文章
99840
阅读量
31
订阅数
[有意思的数学] 傅里叶变换和卷积与图像滤波的关系(1)
开始之前,说个事情,这个公众号的发文的频率是不确定的哈,有时候我可能不方便,或者比较忙的时候,就不更新了,这几天刚开始,我写着写着还有点上瘾,哈哈,所以每天都会坚持和大家分享。非常感谢大家的关注,每天看着关注人数的增加,心里别提有多激动了,哈哈!* . * 还有个事情,就是公众号的名字,一会儿我发完消息之后就更名为: 机器学习和数学 这样看着正式一点,有木有。但以后跟新的内容,还是我觉得比较坑的地方哈,新手容易走弯路的地方。希望对大家不会造成什么影响。 从今天开始,大概会有3-5篇的文章写一下卷积神经网络
用户1622570
2018-04-11
1.4K0
[机智的机器在学习] 卷积神经网络入门教程(1)
机智的机器在学习,就像机智的你现在在学习一样,当你在看这篇文章的时候,你就是在学习,学习的材料(数据)就是这篇文章。学习的结果就是你了解了卷积神经网络是个什么鬼。同理可得,机器在学习(也可以叫训练机器,想想运动员怎么训练)的时候,它的眼里看着的就是数据(数字,图像,文本,音频,视频。。。),学习的结果就是数据中有哪些内容,它的各种结构,特征是什么样子的。 说句题外话,我开通这个公众号,其实不求粉丝有多少,阅读量有多少,讲道理,这几天我感觉把自己写的东西,发到群里,朋友圈确实需要勇气,如果打扰到谁了,这里说声
用户1622570
2018-04-11
7490
[机智的机器在学习] 卷积神经网络入门教程(2)
今天继续回归卷积神经网络的入门教程,主要是介绍全连接网络的训练过程,通俗的讲就是我们入门教程(1)里面讲的是全连接网络长什么样,神经元之间的关系是什么样的,里面的参数代表什么意思,这些都是说了的,对吧!然后全连接网络的训练就是怎么计算参数的值是多少,比如说我们有一直线方程y=kx + b,里面的k和b就是两个未知的参数,然后计算这两个参数就是通过两个点的坐标,利用二元一次方程组来计算。这个计算的过程,在NN里面叫做训练!也就是说网络(也可以理解为模型或者方程)建好了以后是不知道里面的参数值是多少的,需要根据
用户1622570
2018-04-11
6650
[机智的机器在学习] 常用网络层总结之CNN篇
卷积神经网络(CNN)由输入(Inputs)、卷积层(Convolutions layer)、激活层(Activation)、池化层(Pooling layer)和全连接层(Fully Connected, FC)成。这句话的意思是CNN里面可以有这些层,但是每种网络层(Layer)的个数理论上是可以任意多个的。这也就有了后来的AlexNet,GoogLeNet,ResNet等著名的网络结构,后面我会选择一两个介绍下吧。他们的主要区别就在于Layer的深度不一样,也就是Layer的数量。一般来说Layer
用户1622570
2018-04-11
9040
[高大上的DL]经典网络模型总结之AlexNet篇
为了不让大家以为我这两天没学习的假象(shi shi),决定今天一定要更新一下了! 之前基本把卷积神经网络的内容过了一遍,还差一点就是网络层的介绍,后来我想了一下,不如和经典的卷积神经网络放在一起,因为这些经典的网络,因为应用了一些比较好的思想而取得state-of-the-art(当前最好)的效果。所以放在一起可以更好的理解吧。今天简单说一下著名的AlexNet,当然总结的目的不是说可以代替大家看论文,只是把我当时看的时候,不明白的地方说一下。还有就是AlexNet可以给我
用户1622570
2018-04-11
1.4K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档