前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >资源 | 斯坦福CS231n Spring 2017详细课程大纲(附完整版课件下载)

资源 | 斯坦福CS231n Spring 2017详细课程大纲(附完整版课件下载)

作者头像
机器之心
发布2018-05-08 14:28:56
1.1K0
发布2018-05-08 14:28:56
举报
文章被收录于专栏:机器之心

选自Stanford

机器之心编译

参与:Smith、蒋思源

CS231n 近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一。而最近才刚刚结课的 CS231n Spring 2017 仍由李飞飞带头主讲,并邀请了 Goodfellow 等人对其中部分章节详细介绍。本课程从计算机视觉的基础概念开始,在奠定了基本分类模型、神经网络和优化算法的基础后,重点详细介绍了 CNN、RNN、GAN、RL 等深度模型在计算机视觉上的应用。机器之心近日曾经报道李飞飞详解深度学习的框架实现与对比,读者也可以点击阅读原文下载全部课件。

课件地址:http://cs231n.stanford.edu/slides/2017/

Lecture 1:计算机视觉的概述、历史背景以及课程计划

Lecture 2:图像分类——包括数据驱动(data-driven)方法,K 近邻方法(KNN)和线性分类(linear classification)方法

Lecture 3:损失函数和优化(loss Function and optimization)

这一讲主要分为三部分内容:

1. 继续上一讲的内容介绍了线性分类方法;

2. 介绍了高阶表征及图像的特点;

3. 优化及随机梯度下降(SGD)。

Lecture 4:神经网络

包括经典的反向传播算法(back-propagation);多层感知机结构(multilayer perceptrons);以及神经元视角。

Lecture 5:卷积神经网络(CNN)

主要分为三部分内容:

1. 卷积神经网络的历史背景及发展;

2. 卷积与池化(convolution and pooling);

3. ConvNets 的效果

Lecture 6:如何训练神经网络 I

介绍了各类激活函数,数据预处理,权重初始化,分批归一化(batch normalization)以及超参优化(hyper-parameter optimization)。

Lecture 7:如何训练神经网络 II

介绍了优化方法(optimization)、模型集成(model ensembles)、正则化(regularization)、数据扩张(data-augmentation)和迁移学习(transfer learning)。

Lecture 8: 深度学习软件基础

1. 详细对比了 CPU 和 GPU;

2. TensorFlow、Theano、PyTorch、Torch、Caffe 实例的具体说明;

3. 各类框架的对比及用途分析。

Lecture 9:卷积神经网络架构(CNN Architectures)

该课程从 LeNet-5 开始到 AlexNet、VGG、GoogLeNet、ResNet 等由理论到实例详细描述了卷积神经网络的架构与原理。

Lecture 10:循环神经网络(Recurrent Neural Networks)

该课程先详细介绍了 RNN、LSTM 和 GRU 的架构与原理,再从语言建模、图像描述、视觉问答系统等对这些模型进行进一步的描述。

Lecture 11:检测与分割(Detection and Segmentation)

该课程在图像分类的基础上介绍了其他的计算机视觉任务,如语义分割、目标检测和实例分割等,同时还详细介绍了其它如 R-CNN、Fast R-CNN、Mask R-CNN 等架构。

Lecture 12:可视化和理解(Visualizing and Understanding)

该部分不仅讲述了特征可视化和转置,同时还描述了对抗性样本和像 DeepDream 那样的风格迁移系统。

Lecture 13:生成模型(Generative Models)

该章节从 PixelRNN 和 PixelCNN 开始,再到变分自编码器和生成对抗网络详细地讲解了生成模型。

Lecture 14:强化学习(Reinforcement Learning)

该章节先从基本概念解释了什么是强化学习,再解释了马尔可夫决策过程如何形式化强化学习的基本概念。最后对 Q 学习和策略梯度进行了详细的刻画,包括架构、优化策略和训练方案等等。

Lecture 15:深度学习高效的方法和硬件(Efficient Methods and Hardware for Deep Learning)

该章节首先展示了深度学习的三大挑战:即模型规模、训练速度和能源效率。而解决方案可以通过联合设计算法-硬件以提高深度学习效率,构建更高效的推断算法等,

Lecture 16:对抗性样本和对抗性训练(Adversarial Examples and Adversarial Training)

该章节由 Ian Goodfellow 于 5 月 30 日主讲,主要从什么事对抗性样本、对抗性样本产生的原因、如何将对抗性样本应用到企业机器学习系统中、及对抗性样本会如何提升机器学习的性能等方面详细描述对抗性样本和对抗性训练。

本文为机器之心编译,转载请联系本公众号获得授权。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-06-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
GPU 云服务器
GPU 云服务器(Cloud GPU Service,GPU)是提供 GPU 算力的弹性计算服务,具有超强的并行计算能力,作为 IaaS 层的尖兵利器,服务于生成式AI,自动驾驶,深度学习训练、科学计算、图形图像处理、视频编解码等场景。腾讯云随时提供触手可得的算力,有效缓解您的计算压力,提升业务效率与竞争力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档