首页
学习
活动
专区
工具
TVP
发布

算法channel

专栏作者
853
文章
1022929
阅读量
136
订阅数
《动手学深度学习》Pytorch版开源!
李沐等人的开源中文书《动手学深度学习》现在有 PyTorch 版实现了。不论是原书中的示例代码,还是实战项目,原来的 MXNet 都可以无缝转化到 PyTorch 代码。项目作者在保持原书内容基本不变的情况下,将 MXNet 代码都转换为了 PyTorch,想要学习 DL 和 PyTorch 的小伙伴们可以试试啊。
double
2019-12-30
1.1K0
80页机器学习笔记,帮你少走弯路!
本文要介绍的是一份长约 80 页的学习笔记,旨在总结机器学习的一系列基本概念(如梯度下降、反向传播等),不同的机器学习算法和流行模型,以及一些作者在实践中学到的技巧和经验。
double
2019-10-08
3220
BAT面试题4:简单聊聊特征工程
接下来,每天推送一道BAT的面试题,一般问到的这些知识点都是很重要的,所以知道的就再复习一下,不知道的希望这篇可以帮助到你。日积月累,你会在不知不觉中就步入机器学习的大门,并且越走越远。同时,还能助你顺利拿到OFFER.
double
2018-10-23
1.6K0
爱(AI)与你同行系列"(1):从哪三个方面入手做好特征选择工程?
今天我们聊一聊特征工程方面的知识,随着大数据时代的到来,特征工程发挥着越来越重要的作用。当数据预处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。简单说,就是发现对因变量y有明显影响作用的特征,通常称自变量x为特征,特征工程的目的是发现重要特征。一般来说,特征工程大体上可以分为三个方面,一是特征构造,二是特征生成,三是特征选择。
double
2018-09-30
4580
深度学习|卷积神经网络(CNN)介绍(后篇)
01 — 回顾 昨天介绍了CNN的卷积操作,能减少权重参数的个数,卷积操作涉及到三个超参数: 深度(Depth) 步长(Stride) 零填充(Zero-padding) 还有一种运算,叫做求内积,关于这部分的总结,请参考: 深度学习|卷积神经网络(CNN)介绍(前篇) 下面,阐述CNN剩下的两种操作,ReLU,Pooling。 02 — ReLU操作 CNN用的激活函数不是Sigmoid函数,大家都知道Sigmoid函数最大的问题是随着深度学习会出现梯度消失,这样会导致最后的收敛速度变得很慢,经过实践
double
2018-04-02
1.5K0
深度学习|卷积神经网络(CNN)介绍(前篇)
01 — 回顾 以上推送了神经网络相关的介绍性内容和相关的基础理论,包括: 神经网络的基本结构:输入层,隐含层,输出层; 批随机梯度下降算法(mini-batch SGD); 前向传播,激活函数; 反向传播求参数的偏导,四个公式; 手写字数据集的mini-batch SGD 源码实现(借助BP算法求参数偏导); 对隐藏层的感性认识,神经网络的隐含层是如何从具体到抽象层层构建的。 以上阐述了深度神经网络(DNN)的基本理论,关于这些介绍请参考以下推送: 为什么要有深度学习?系统学习清单 深度学习|神经网络模型
double
2018-04-02
1.3K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档