首页
学习
活动
专区
工具
TVP
发布

技术小站

专栏作者
54
文章
88181
阅读量
21
订阅数
吴恩达深度学习笔记 course2 week2 优化算法
batch:之前所用的都是将m个样本放在一起组成向量来就行训练,称为batch,所存在的问题:当样本的数量比较庞大的时候,迭代一次所需要的时间比较多
Dar_Alpha
2018-09-03
5520
吴恩达深度学习 course4 卷积神经网络
传统的神经网络所存在的问题:图片的输入维度比较大,具体如下图所示,这就造成了权重w的维度比较大,那么他所占用的内存也会比较大,计算w的计算量也会很大
Dar_Alpha
2018-09-03
7460
吴恩达深度学习笔记 4.1~4.8 深层神经网络
深层神经网络与浅层神经网络的区别是:隐藏层比浅层神经网络多,从命名规则上来说,有1,2,5个隐藏层的神经网络可以称为1 hidden layer,2 hidden layers,5 hidden layers
Dar_Alpha
2018-09-03
5480
吴恩达深度学习笔记 2.10~2.18 向量化与python
对于非向量化,我们要求得z的值,必须用到for循环,但是当数据量非常庞大的时候,for循环所用的时间会比较多,这个时候可以使用向量运算来提高速度
Dar_Alpha
2018-09-03
4790
吴恩达深度学习笔记 3.1~3.11 浅层神经网络
神经网络的结构与逻辑回归类似,只是神经网络的层数比逻辑回归多了一层,多出的中间一层叫隐藏层,那么,神经网络的计算就相当于多进行一次逻辑回归的计算
Dar_Alpha
2018-09-03
8020
吴恩达深度学习笔记 course4 week2 深度卷积网络 实例探究
这周会讲一些典型的cnn模型,通过学习这些,我们能够对于cnn加深自己的理解,并且在实际的应用中有可能应用到这些,或从中获取灵感
Dar_Alpha
2018-09-03
4760
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档