首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

SIGAI精品课《深度学习》

互联网就业竞争激烈 深度学习人才供不应求

深度学习为机器学习开创了一个新的高潮。深度学习方向已然成为求职者心目中高薪高待遇的职业选项,人人向往之。但是几年下来,市场对于深度学习工程师从“饥不择食”逐渐上升至“从容理性选择”。因此,妄想通过编程能力和调包调参获得一份体面的算法工程师已经毫无希望,作为一名合格的深度学习研发工程师,你的KPI从“应用算法”变成了“驯化算法”。

因此,个体能力要升级!

你只有吃透算法的本质,抓到框架的根本,才能从底层出发,对算法进行调优,进而让结果产生质变,显出千钧之力。

然而,当前市面上大多数课程无视求职者面对的激烈应聘现状,无视在职者需要应对的升级焦虑,始终安于现状,不愿意放弃“沉没成本”,停滞在深度学习的第一个层面。

SIGAI想要赋予你的深度

深度学习研发工程师的能力是分级的,在当前人才辈出、竞争激烈的现状下,上述第一层级的能力显然无法满足一流公司对于人才的要求。

想要“驯服算法”,想要拥有一发千钧之力,必然需要你潜心修炼。作为你AI修炼路上坚定的小伙伴,继

《机器学习》(点击进入小程序试听)

精品课之后, SIGAI再推精品课程《深度学习》(点击进入小程序试听),助力你实现更深层级上的突破和自我超越。

课程导师介绍

雷老师主笔的技术文章,备受读者好评,多篇文章阅读量破万:

优质课程内容

01

合理布局的理论知识点

整个《深度学习》课程长达22集课时,为你全面、系统地讲述下面的知识:

机器学习和数学知识:难度值:3颗星

主要讲授机器学习中的基本概念和算法、分类,以及微积分、线性代数、概率论、最优化方法等数学基础知识,为你后续深度学习储备好基础知识

人工神经网络:难度值:2~3颗星

主要讲授神经网络的思想起源、神经元原理、神经网络的结构和本质、正向传播算法、链式求导及反向传播算法、神经网络怎么用于实际问题等,神经网络的理论解释、实现细节包括输入与输出值的设定、网络规模、激活函数、损失函数、初始化、正则化、学习率的设定、实际应用等

深度学习简介:难度值:1颗星

主要讲授机器学习面临的挑战、人工特征的局限性、为什么选择神经网络、深度学习的诞生和发展、典型的网络结构、深度学习在机器视觉、语音识别、自然语言处理、推荐系统中的应用

自动编码器:难度值:3颗星

主要讲授自动编码的基本思想和网络结构、在特征提取中的应用、去噪自动编码器、稀疏自动编码器、收缩自动编码器、多层自动编码器

受限玻尔兹曼机:难度值:4颗星

主要讲授玻尔兹曼分布、玻尔兹曼机的网络结构、实际应用、训练算法、深度玻尔兹曼机等

卷积神经网络:难度值:3~5颗星

主要讲授卷积神经网络核心思想、卷积层、池化层、全连接层、网络的训练、反向传播算法、随机梯度下降法、AdaGrad算法、RMSProp算法、AdaDelta算法、Adam算法、迁移学习和fine tune,Lenet、Alexnet、VGGNet、GoogLeNet、Inception模块、小尺度卷积核、1x1卷积核、使用反卷积实现卷积层可视化,卷积神经网络面临的挑战包括梯度消失、退化问题,和改进方法包括卷积层、池化层的改进、激活函数、损失函数、网络结构的改 进、残差网络、全卷机网络、多尺度融合、批量归一化,人脸检测算法包括CascadeCNN、DenseBox、MTCNN和人脸识别算法包括DeepFace、DeepID,讲授通用目标检测算法包括R-CNN、SPP网络、Fast R-CNN、RPN网络、YOLO、SSD等,图像语义分割算法包括FCN、SegNet、编码器-解码器结构,风格迁移算法

循环神经网络:难度值:3~5颗星

主要讲授时间序列预测问题、神经网络的记忆功能、循环层的原理、输出层的原理、深层网络、BPTT算法等,讲授LSTM、GRU、双向循环神经网络、序列标注问题、CTC、seq2seq、编码器解码器结构等;讲授语音识别问题简介、GMM-HMM框架、RNN-CTC框架、深层网络等;讲授自然语言处理简介、RNN解决NLP问题的一般思路、中文分词、词性标注、命名实体识别、文本分类、机器翻译等具体问题

生成对抗网络难度值:5颗星

主要讲授数据生成问题、生成对抗网络的思想和结构、生成器、判别器、目标函数、实际应用等;讲授GAN的改进包括条件GAN、深度卷积GAN、InfoGAN、SRGAN等

深度强化学习难度值:5颗星

讲授深度强化学习的基本概念、典型应用、马尔可夫决策过程、测量函数、累计回报、价值函数、贝尔曼最优性方程、时序查分算法、Q学习等;讲授深度强化学习简介、用神经网络拟合价值函数、DQN基本思想、网络结构、训练方法等;讲授策略函数逼近、策略梯度算法的核心思想、网络结构、训练样本与目标函数的构造、策略梯度定理、网络的训练

详细课程大纲见文末

01

学以致用第一个层级:云端实验室

结合理论知识,通过云端实验室的可视化实验,进一步了解算法网络结构,直接、快速分析和对比中间过程和结果,从而深度理解每个算法的机理和应用。

深度学习实验

>

计算机视觉实验

>

自然语言处理实验

>

02

学以致用第二层级:丰富的实践项目

深度学习的项目不同于机器学习的实践项目,需要强大的GPU计算资源,这对很多学习者造成了一定的学习壁垒。SIGAI提供的在线编程功能(在高级版运算实验室中),不仅提供三个月GPU运算资源,同时,将实践项目需要的源码和数据通过精心整理和说明,放置在在线编程功能当中,不仅有效解决了学习者的资源困扰,更是有效提高了大家的学习效率。

03

贴心的在线答疑

在六个月的学习期内,由雷老师带领团队亲自为所有购买了《深度学习》课程的小伙伴提供在线答疑服务。

FAQ

1. 授课方式

为了保障课程质量,提高学习效率, 课程采用录播形式。视频精心录制与剪辑制作,时间比直播更灵活,方便随时观看学习。

2. 学习《深度学习》的要求

虽然在课程中会讲解深度学习中所用到的数学知识,但没有数学基础的同学,需要先修过3门基础课程:线性代数、概率论以及高等数学,同时具备基本机器学习的知识,才能更好地理解课程内容,跟上课程进度。

3. 课程周期

为了让大家在一定时间内集中精力学习,《深度学习》课程有效期有6个月时间,对于单独学习这门课程来说,时间是充裕的。

4. 开取发票

5. 延长课程有效期

课程到期后,电脑端登录官网可以续费,续费价格是官网原价的5%。

其它套餐

深度学习 + 在线答疑

前55名优惠价:799元(原价1399元)

深度学习 + 在线答疑 + 高级版实验室(含三个月GPU资源)

限时优惠价:2699元(原价3099元)

机器学习 + 深度学习 + 在线答疑 + 高级版实验室(含三个月GPU资源)

限时优惠价:3099元(原价3499元)

如何报名?

方式2:安卓用户戳小程序:SIGAI精品课《深度学习》,直接下单购买(暂不支持苹果手机)

有更多问题,欢迎联系SIGAI小编

最后,为用户提供高品质的产品与服务,是SIGAI孜孜不倦的追求。SIGAI立志成为伟大的AI学习与实践平台,后续会持续为大家提供更多、更好的产品,其中有不少是免费的。为了让更多的同学能够享受到优质课程,我们以799元的优惠价格为大家开放《深度学习》课程。只需要支付这一极低的费用+6个月的坚持,你将会达到深度学习的新高度。

课程的录制、服务器的研发、带宽与服务器硬件等需要耗费SIGAI大量的成本,长期以来,我们一直依靠着信念与理想来为大家提供优质服务。感兴趣的同学可以抓紧时间,你的支持,将使得SIGAI有更多的资源和动力研发出更多、更好的产品,帮更多人在人工智能的学术研究、产品研发、管理等方向取得成功!

最好的课程,最丰富的实践项目,最优质的技术文章,只为献给立志于从事人工智能事业的你!

《深度学习》完整版课程大纲

第 1 集机器学习与数学基础知识

1.1 课程简介

1.2 本集内容简介

1.3 什么是机器学习

1.4 机器学习中的基本概念

1.5 有监督学习的一般流程

1.6 机器学习算法的分类

1.7 需要哪些数学知识

1.8 导数

1.9 高阶导数

1.10 导数与函数的性质

1.11 一元函数极值判别法则

1.12 一元函数泰勒展开

1.13 向量及其运算

1.14 向量的范数

1.15 矩阵及其运算

1.16 特征值与特征向量

1.17 二次型

1.18 张量

1.19 偏导数

1.20 高阶偏导数

1.21 梯度

1.22 雅克比矩阵

1.23 Hessian矩阵

1.24 多元函数极值判别法则

1.25 多元函数泰勒展开

1.26 几个重要的矩阵和向量求导公式

1.27 随机事件与概率

1.28 条件概率与贝叶斯公式

1.29 随机事件的独立性

1.30 随机变量

1.31 数学期望

1.32 方差

1.33 常用的概率分布

1.34 随机向量

1.35 边缘概率与边缘密度

1.36 随机变量的独立性

1.37 协方差

1.38 常用的多维分布

1.39 最大似然估计

1.40 最优化中的基本概念

1.41 为什么要用迭代法

1.42 梯度下降法

1.43 数值优化算法面临的问题

1.44 生成模型与判别模型

1.45 准确率与回归误差

1.46 精度与召回率

1.47 ROC曲线

1.48 交叉验证

1.49 欠拟合与过拟合

1.50 正则化

1.51 logistic回归

1.52 softmax回归

1.53 主成分分析

1.54 与机器学习相关的应用方向

1.55 人脸检测

1.56 行人检测

1.57 语音识别

1.58 博弈游戏

1.59 机器翻译

1.60 本集总结

第 2 集人工神经网络1

2.1 本集简介

2.2 神经网络的思想起源

2.3 神经元的原理

2.4 sigmoid激活函数

2.5 神经网络结构

2.6 正向传播算法

2.7 神经网络的本质

2.8 怎样用于实际问题

2.9 手写数字图像分类

2.10 人脸关键点定位

2.11 反向传播算法简介

2.12 正向传播算法回顾

2.13 目标函数

2.14 欧氏距离损失函数的导数

2.15 链式法则

2.16 几个重要的求导公式

2.17 求导的整体思路

2.18 计算权重和偏置的梯度

2.19 计算临时变量的梯度

2.20 完整的算法

2.21 反向传播算法总结

2.22 工程实现问题

2.23 本集总结

第 3 集人工神经网络2

3.1 本集内容简介

3.2 实验环节

3.3 理论层面的解释

3.4 万能逼近定理

3.5 与动物神经系统的比较

3.6 实现细节问题

3.7 输入值与输出值的设定

3.8 网络的规模

3.9 激活函数

3.10 激活函数的深入解释

3.11 损失函数

3.12 交叉熵损失函数的深入解释

3.13 参数初始化策略

3.14 正则化

3.15 学习率的设定

3.16 挑战与改进措施

3.17 梯度消失问题

3.18 退化问题

3.19 局部极值问题

3.20 鞍点问题

3.21 神经网络损失函数的曲面

3.22 实际应用

3.23 实践项目

3.24 本集总结

第 4 集深度学习简介

4.1 本集内容简介

4.2 机器学习面临的挑战

4.3 人工特征的局限性

4.4 机器学习算法的瓶颈

4.5 为什么选择了神经网络

4.6 深层神经网络训练的困难

4.7 深度学习的基本思路

4.8 深度学习的诞生历程

4.9 深度学习得以发展的因素

4.10 典型的网络结构

4.11 深度学习的发展现状

4.12 在机器视觉中的应用

4.13 在语音识别中的应用

4.14 在自然语言处理中的应用

4.15 在推荐系统中的应用

4.16 深度强化学习

4.17 本集总结

第 5 集自动编码器

5.1 本集内容简介

5.2 自动编码器的基本思想

5.3 网络结构

5.4 损失函数

5.5 用于特征提取

5.6 去噪自动编码器

5.7 稀疏自动编码器

5.8 收缩自动编码器

5.9 多层自动编码器

5.10 本集总结

第 6 集受限玻尔兹曼机

6.1 本集内容简介

6.2 玻尔兹曼分布

6.3 网络结构

6.4 实际例子

6.5 计算隐藏单元的条件概率

6.6 计算单个隐藏单元的值

6.7 用于特征提取

6.8 训练算法

6.9 深度玻尔兹曼机

6.10 本集总结

第 7 集卷积神经网络1

7.1 本集简介

7.2 卷积神经网络简介

7.3 视觉神经系统的原理

7.4 卷积神经网络的核心思想

7.5 卷积运算

7.6 卷积层的原理

7.7 多通道卷积

7.8 池化层的原理

7.9 全连接层

7.10 卷积神经网络的整体结构

7.11 训练算法简介

7.12 卷积层的反向传播

7.13 池化层的反向传播

7.14 全连接层的反向传播

7.15 完整的反向传播实现

7.16 随机梯度下降法

7.17 参数初始化

7.18 学习率的设定

7.19 梯度下降法的改进思路

7.20 动量项梯度下降法

7.21 AdaGrad算法

7.22 RMSProp算法

7.23 AdaDelta算法

7.24 Adam算法

7.25 梯度下降法的改进脉络

7.26 迁移学习与fine tune

7.27 本集总结

第 8 集卷积神经网络2

8.1 本集简介

8.2 LeNet网络简介

8.3 LeNet网络的结构

8.4 AlexNet网络简介

8.5 AlexNet网络的主要改进点

8.6 VGG网络简介

8.7 小尺寸卷积核

8.8 VGG网络的结构

8.9 GoogLetNet网络简介

8.10 Inception模块

8.11 1x1卷积

8.12 使用1x1卷积进行通道降维的Inception模块

8.13 反卷积

8.14 用反卷积实现卷积层可视化

8.15 卷积神经网络的数学特性

8.16 根据卷积结果重构图像

8.17 本集总结

第 9 集卷积神经网络3

9.1 本集简介

9.2 面临的挑战与改进措施

9.3 梯度消失问题

9.4 退化问题

9.5 总体改进思路

9.6 卷积层的改进1

9.7 1x1卷积

9.8 用矩阵乘法实现卷积

9.9 池化层的改进

9.10 激活函数的改进

9.11 损失函数的改进

9.12 网络结构的改进

9.14 残差网络

9.15 残差网络的分析

9.16 全卷积网络

9.17 多尺度融合

9.18 批量归一化

9.19 本集总结

第 10 集卷积神经网络4

10.1 本集简介

10.2 卷积神经网络应用简介

10.3 人脸检测简介

10.4 人脸二分类器

10.5 滑动窗口技术

10.6 分类器级联

10.7 Cascade CNN简介

10.8 检测算法的流程

10.9 检测网络的结构

10.10 校准网络的结构

10.11 训练算法的流程

10.12 检测结果

10.13 DenseBox简介

10.14 检测算法的流程

10.15 网络结构

10.16 网络的输出数据与损失函数

10.17 MTCNN简介

10.18 检测算法的流程

10.19 网络结构

10.20 人脸识别简介

10.21 DeepFace简介

10.22 网络结构

10.23 DeepID简介

10.24 网络结构

10.25 DeepID2简介

10.26 多任务损失函数

10.27 其他人脸识别算法

第 11 集卷积神经网络5

11.1 通用目标检测简介

11.2 R-CNN简介

11.3 检测算法的流程

11.4 SPP网络简介

11.5 要解决的核心问题

11.6 卷积神经网络为什么只能接受固定尺寸的输入

11.7 SPP层的原理

11.8 检测算法的流程

11.9 SPP层不可反向传播的问题

11.10 Fast R-CNN简介

11.11 网络结构

11.12 损失函数与检测算法

11.13 Faster R-CNN简介

11.14 网络结构

11.15 RPN的原理

11.16 RPN的网络结构

11.17 anchor机制

11.18 损失函数与anchor标注

11.19 网络的训练

11.20 YOLO简介

11.21 整体原理

11.22 网络的预测数据

11.23 网络结构

11.24 SSD简介

11.25 网络结构

11.26 网格划分与默认矩形框

11.27 损失函数

11.28 图像语义分割简介

11.29 FCN简介

11.30 网络结构

11.31 SegNet简介

11.32 编码器-解码器结构

11.33 风格迁移简介

11.34 风格特征与内容特征

11.35 目标函数

11.36 优化流程

11.37 卷积神经网络应用总结

第 12 集循环神经网络1

12.1 本集内容简介

12.2 时间序列预测问题

12.3 神经网络具有记忆功能

12.4 循环层的原理

12.5 输出层的原理

12.6 一个简单的循环神经网络

12.7 将数据按照时间线展开

12.8 深层网络

12.9 BPTT算法简介

12.10 损失函数

12.11 输出层求导

12.12 循环层求导

12.13 BPTT算法的流程

12.14 本集总结

第 13 集循环神经网络2

13.1 本集内容简介

13.2 梯度消失问题

13.3 解决思路

13.4 LSTM

13.5 LSTM总结

13.6 GRU

13.7 双向循环神经网络简介

13.8 预测算法

13.9 双向网络的简单例子

13.10 序列标注问题

13.11 序列标注问题面临的问题

13.12 序列标注问题分类

13.13 CTC简介

13.14 CTC的原理

13.15 CTC的训练算法

13.16 seq2seq简介

13.17 编码器-解码器结构

13.18 seq2seq的预测算法

13.19 seq2seq的训练算法

13.20 seq2seq的用法

13.21 本集总结

第 14 集循环神经网络3

14.1 本集内容简介

14.2 语音识别问题简介

14.3 问题的抽象

14.4 实际例子

14.5 GMM-HMM框架

14.6 神经网络早期在语音识别中的应用

14.7 RNN-CTC框架简介

14.8 RNN-CTC框架的原理

14.9 深层网络

14.10 本集总结

第 15 集循环神经网络4

15.1 本集内容简介

15.2 自然语言处理简介

15.3 RNN解决NLP问题的一般思路

15.4 中文分词简介

15.5 用RNN解决分词问题

15.6 词性标注

15.7 命名实体识别

15.8 文本分类

15.9 机器翻译简介

15.10 用seq2seq解决机器翻译问题

15.11 本集总结

第 16 集生成对抗网络1

16.1 本集内容简介

16.2 数据生成问题

16.3 均匀分布随机数生成

16.4 正态分布随机数生成

16.5 显式建模与隐式建模

16.6 实际例子

16.7 生成对抗网络的思想

16.8 生成对抗网络的结构

16.9 生成器

16.10 判别器

16.11 优化目标函数

16.12 目标函数的解释

16.13 训练算法

16.14 实际使用

16.15 理论分析

16.16 本集总结

第 17 集生成对抗网络2

17.1 本集内容简介

17.2 GAN改进与应用简介

17.3 条件GAN的思想

17.4 条件GAN的网络结构

17.5 条件GAN的优化目标

17.6 深度卷积GAN

17.7 InfoGAN的思想

17.8 InfoGAN的结构

17.9 互信息

17.10 InfoGAN的优化目标

17.11 图像超分辨简介

17.12 SRGAN的基本思想

17.13 SRGAN的网络结构

17.14 SRGAN的优化目标

17.15 由文字生成图像

17.16 网络结构

17.17 本集总结

第 18 集深度强化学习1

18.1 本集内容简介

18.2 强化学习的基本概念

18.3 典型应用实例

18.4 问题的定义

18.5 马尔可夫决策过程

18.6 实际例子

18.7 策略函数

18.8 实际例子

18.9 累计回报

18.10 状态价值函数

18.11 动作价值函数

18.12 按照时间线展开

18.13 最优策略

18.14 主要的求解算法

18.15 贝尔曼最优性方程

18.16 时序差分算法

18.17 Q学习算法

18.18 本集总结

第 19 集深度强化学习2

19.1 本集内容简介

19.2 深度强化学习简介

19.3 价值函数逼近

19.4 用神经网络拟合价值函数

19.5 深度强化学习的早期尝试

19.6 DQN的基本思想

19.7 DQN的网络结构

19.8 目标函数

19.9 训练样本

19.10 DQN的训练算法

19.11 本集总结

第 20 集深度强化学习3

20.1 本集内容简介

20.2 DQN的局限性

20.3 策略梯度算法的核心思想

20.4 训练样本的构造

20.5 目标函数的构造

20.6 策略梯度的计算

20.7 策略梯度定理

20.8 实现细节

20.9 本集总结

第 21 集实践项目

21.1 用AlexNet实现MNIST数据集分类

21.2 用GoogLeNet实现图像分类

21.3 用残差网络实现图像分类

21.4 用Faster R-CNN实现目标检测

21.5 用YOLO3/SSD/FPN实现目标检测

21.6 MTCNN人脸检测模型训练

21.7 Center loss人脸识别模型训练

21.8 用FCN实现图像分割

21.9 训练RNN中文分词模型

21.10 训练seq2seq机器翻译模型

21.11 用DQN实现游戏控制

21.12 用策略梯度网络实现运动控制

21.13 训练生成对抗网络

第 22 集深度学习总结

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181016A1UJ1A00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券