斯坦福CS231n Spring 2017开放全部课程视频(附大纲)

机器之心报道

参与:机器之心编辑部

CS231n近几年一直是计算机视觉领域和深度学习领域最为经典的课程之一。而最近刚刚结课的CS231n Spring 2017 仍由李飞飞主讲,并邀请了Goodfellow等人对其中部分章节详细介绍。本课程从计算机视觉的基础概念开始,在奠定了基本分类模型、神经网络和优化算法的基础后,详细介绍了CNN、RNN、GAN、RL等深度模型在计算机视觉上的应用。前天,斯坦福开放了该课程的全部视频,并且还有配套英文字幕。因此,CS231n 2017 春季课程包括 PPT 和视频在内的所有教学资料都已开放。机器之心将为各位读者介绍该课程,并提供相应的资源,Bilibili视频地址由微博知名博主爱可可老师提供。

  • 课件地址:http://cs231n.stanford.edu/slides/2017/
  • 课程视频地址:https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv
  • Bilibili视频地址:http://www.bilibili.com/video/av13260183/#page=1

以下为该课程的内容大纲

Lecture 1:计算机视觉的概述、历史背景以及课程计划

Lecture 2:图像分类——包括数据驱动(data-driven)方法,K 近邻方法(KNN)和线性分类(linear classification)方法

Lecture 3:损失函数和优化(loss Function and optimization)

这一讲主要分为三部分内容:

1. 继续上一讲的内容介绍了线性分类方法;

2. 介绍了高阶表征及图像的特点;

3. 优化及随机梯度下降(SGD)。

Lecture 4:神经网络

包括经典的反向传播算法(back-propagation);多层感知机结构(multilayer perceptrons);以及神经元视角。

Lecture 5:卷积神经网络(CNN)

主要分为三部分内容:

1. 卷积神经网络的历史背景及发展;

2. 卷积与池化(convolution and pooling);

3. ConvNets 的效果

Lecture 6:如何训练神经网络 I

介绍了各类激活函数,数据预处理,权重初始化,分批归一化(batch normalization)以及超参优化(hyper-parameter optimization)。

Lecture 7:如何训练神经网络 II

介绍了优化方法(optimization)、模型集成(model ensembles)、正则化(regularization)、数据扩张(data-augmentation)和迁移学习(transfer learning)。

Lecture 8: 深度学习软件基础

1. 详细对比了 CPU 和 GPU;

2. TensorFlow、Theano、PyTorch、Torch、Caffe 实例的具体说明;

3. 各类框架的对比及用途分析。

Lecture 9:卷积神经网络架构(CNN Architectures)

该课程从 LeNet-5 开始到 AlexNet、VGG、GoogLeNet、ResNet 等由理论到实例详细描述了卷积神经网络的架构与原理。

Lecture 10:循环神经网络(Recurrent Neural Networks)

该课程先详细介绍了 RNN、LSTM 和 GRU 的架构与原理,再从语言建模、图像描述、视觉问答系统等对这些模型进行进一步的描述。

Lecture 11:检测与分割(Detection and Segmentation)

该课程在图像分类的基础上介绍了其他的计算机视觉任务,如语义分割、目标检测和实例分割等,同时还详细介绍了其它如 R-CNN、Fast R-CNN、Mask R-CNN 等架构。

Lecture 12:可视化和理解(Visualizing and Understanding)

该部分不仅讲述了特征可视化和转置,同时还描述了对抗性样本和像 DeepDream 那样的风格迁移系统。

Lecture 13:生成模型(Generative Models)

该章节从 PixelRNN 和 PixelCNN 开始,再到变分自编码器和生成对抗网络详细地讲解了生成模型。

Lecture 14:强化学习(Reinforcement Learning)

该章节先从基本概念解释了什么是强化学习,再解释了马尔可夫决策过程如何形式化强化学习的基本概念。最后对 Q 学习和策略梯度进行了详细的刻画,包括架构、优化策略和训练方案等等。

Lecture 15:深度学习高效的方法和硬件(Efficient Methods and Hardware for Deep Learning)

该章节首先展示了深度学习的三大挑战:即模型规模、训练速度和能源效率。而解决方案可以通过联合设计算法-硬件以提高深度学习效率,构建更高效的推断算法等,

Lecture 16:对抗性样本和对抗性训练(Adversarial Examples and Adversarial Training)

该章节由 Ian Goodfellow 于 5 月 30 日主讲,主要从什么事对抗性样本、对抗性样本产生的原因、如何将对抗性样本应用到企业机器学习系统中、及对抗性样本会如何提升机器学习的性能等方面详细描述对抗性样本和对抗性训练。

IJCAI 2017期间,腾讯联合机器之心在墨尔本举办青年学者技术分享酒会,点击阅读原文参与报名↓↓↓

原文发布于微信公众号 - 机器之心(almosthuman2014)

原文发表时间:2017-08-13

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI科技大本营的专栏

一篇文章搞懂图像风格迁移(Neural Style)的历史变迁

作者 | 李嘉铭 面向读者:没有或有一定机器学习经验并对Prisma之类的app背后的原理感兴趣的读者。比较有经验的读者可以直接参照科技树阅读文章末罗列的引用论...

7596
来自专栏专知

基于信息理论的机器学习-中科院自动化所胡包钢研究员教程分享02(附pdf下载)

【导读】上一次专知推出基于信息理论的机器学习报告,大家反响热烈,今天是胡老师提供的第二部分(为第三章内容)进行详细地注释说明,请大家查看! ▌概述 ---- 本...

3489
来自专栏新智元

【ICCV 目标跟踪性能最优】首个应用残差学习的深度目标跟踪算法

【新智元导读】不同于在目标检测和识别等领域取得的丰硕成果,深度学习在目标跟踪领域进展相对缓慢,很大原因是缺乏数据——目标跟踪只有第一帧的标定框作为训练数据,在这...

3837
来自专栏CreateAMind

用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践

近来在同时做一个应用深度学习解决淘宝商品的类目预测问题的项目,恰好硕士毕业时论文题目便是文本分类问题,趁此机会总结下文本分类领域特别是应用深度学习解决文本分类的...

5462
来自专栏专知

【干货】Google GAN之父Ian Goodfellow ICCV2017演讲:解读生成对抗网络的原理与应用

【导读】当地时间 10月 22 日到10月29日,两年一度的计算机视觉国际顶级会议 International Conference on Computer V...

4745
来自专栏吉浦迅科技

(图解)机器学习的衰颓兴盛:从类神经网络到浅层学习

1950年代计算机发明以来,科学家便希冀着利用计算机创造出人工智能;然而,当时的硬件效能低落、数据量不足,随着通用问题解决机、日本第五代计算机等研究计划的失败,...

38111
来自专栏达观数据

这个男人嫁还是不嫁?懂点朴素贝叶斯(Naive Bayes)原理让你更幸福

1652
来自专栏深度学习

14种模型设计帮你改进你的卷积神经网络(CNN)

自2011年以来,深度卷积神经网络(CNN)在图像分类的工作中的表现就明显优于人类,它们已经成为在计算机视觉领域的一种标准,如图像分割,对象检测,场景标记,跟踪...

4159
来自专栏人工智能头条

拓扑数据分析在机器学习中的应用

37112
来自专栏AI科技评论

学界 | 腾讯AI Lab 20篇论文入选NIPS2018,含2篇Spotlight

被誉为神经计算和机器学习领域两大顶级会议之一的NIPS于近日揭晓收录论文名单,此次为第32届会议,将于 12 月 3 日至 8 日在加拿大蒙特利尔举办。

1032

扫码关注云+社区

领取腾讯云代金券