专栏首页Flaneur的文章分享第一次测试题总结

第一次测试题总结

前言

这里是一些暑期培训第一次测试题的部分解释,经过这次测试的摧残,总结备录一下,方便日后回顾复习。

Feeling

        经过几天的学习,7月22日下午,进行了第一次检测。开始以为会让我们推导一些公式什么的,结果当拿到测试题的时候,一首凉凉送给自己……开始的选择题和填空题还能接受,看到简答题,这都是什么,有种似曾相识的感觉,但就是写不出来。为时四十分钟的考试结束后,不到半个小时成绩就出来了,虽然成绩不那么好,但排名还行,然后学长给我们进行了讲解答疑,发现自己学的有点粗糙,没有注意那些细节性问题和概念,学以致用这方面也是有点差的。

Test 1

为什么一般需要划分出额外的校验集(validation set)用于超参数调整,而不选择直接使用测试集(test set)?

        校验集是用于调整超参数的,从而更好的优化训练模型。测试集是用于在完成神经网络训练过程后,为了客观评价模型在其未见过(未曾影响普通参数和超参数选择)的数据上的性能,而且测试集不能提出对参数或者超参数的修改意见,只能作为评价网络性能的一个指标

(备注:不清楚这三个数据集概念及其作用的,可看下我以前写的关于这些的一篇文章。传送门:)

Test 2

批量梯度下降(Batch Gradient Descent)和随机梯度下降(Stochastic Gradient Descent)在应对鞍点时有何不同表现?

        我们要先知道什么是BGD和SGD,从两者的运算方法上,我们就可以得知不同之处。

(1)批量梯度下降法(Batch Gradient Descent) :在更新参数时都使用所有的样本来进行更新。

  • 优点:全局最优解,能保证每一次更新权值,都能降低损失函数;易于并行实现。
  • 缺点:当样本数目很多时,训练过程会很慢。

(2)随机梯度下降法(Stochastic Gradient Descent):在更新参数时都使用一个样本来进行更新。每一次跟新参数都用一个样本,更新很多次。如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将参数迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次,这种方式计算复杂度太高。

  • 优点:训练速度快;
  • 缺点:准确度下降,并不是全局最优;不易于并行实现。从迭代的次数上来看,随机梯度下降法迭代的次数较多,在解空间的搜索过程看起来很盲目。噪音很多,使得它并不是每次迭代都向着整体最优化方向。

Test 3

当一个模型训练完后若在训练集上的loss非常高,请问如何在不对代码进行全面排查的前提下,以最快速度定位是模型本身的拟合能力不足还是代码的实现存在某种错误?

        废话不多说,直接上图:

Test 4

假设我们在训练一个使用Sigmoid激活函数的全连接神经网络。在对其权重进行初始化时,为什么一般会倾向于让初始值的绝对值偏小?如果需要这样,为何不直接使用0进行初始化?

        对于逻辑回归,把权重初始化为0当然也是可以的,但是对于一个神经网络,如果你把权重或者参数都初始化为0,那么梯度下降将不会起作用。         如果权值全初始化为0,则无法更新权值。这是由于前向传播中,所有节点输出值均相同,由于此处使用了sigmod激活函数,所以此处所有神经节点输出都为1/2,而在反向传播每个节点输出值对损失函数的偏导时,涉及到对权值相乘后的求和,该项永远为0,故所乘的结果也必然为0,这样在计算权值对算是函数的偏导时,其偏导必然为0,所有权值偏导都为0,那么就不要指望使用梯度下降法能更新权值了,自然神经网络的训练也就无法进行下去了。

Test 5

在CNN中梯度不稳定指的是什么?在神经网络训练过程中,为什么会出现梯度消失的问题?如何解决?

        神经网络中的梯度不稳定指的是梯度消失梯度爆炸问题。 (备注:对于这两种问题的具体解释和为什么会出现这种问题,以及解决方法,这里不具体讨论了,我会在以后的文章中具体解释到的。)

Test 6

为什么在神经网络中使用交叉熵而不是均方差作为误差函数?

1. 神经网络中如果预测值与实际值的误差越大,那么在反向传播训练的过程中,各种参数调整的幅度就要更大,从而使训练更快收敛,如果预测值与实际值的误差小,各种参数调整的幅度就要小,从而减少震荡。 2. 使用平方误差损失函数,误差增大参数的梯度会增大,但是当误差很大时,参数的梯度就会又减小了。 3. 使用交叉熵损失是函数,误差越大参数的梯度也越大,能够快速收敛。

        (备注:对于结论的推导过程会总结在另一篇文章里。)

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 梯度下降法的三种形式BGD、SGD、MBGD及python实现

            梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(S...

    Flaneur
  • 数据集的划分--训练集、验证集和测试集

            在机器学习中,经常提到训练集和测试集,验证集似有似无。感觉挺好奇的,就仔细查找了文献。以下谈谈训练集、验证集和测试集。

    Flaneur
  • 多种相似度计算的python实现

            在机器学习中有很多地方要计算相似度,比如聚类分析和协同过滤。计算相似度的有许多方法,其中有欧几里德距离(欧式距离)、曼哈顿距离、Jaccard系...

    Flaneur
  • 学界 | 哥伦比亚大学与Adobe提出新方法,可将随机梯度下降用作近似贝叶斯推理

    选自arXiv 机器之心编译 参与:吴攀 伦比亚大学和 Adobe 的三位研究者近日在 arXiv 上的一篇论文《用作近似贝叶斯推理的随机梯度下降(Stoch...

    机器之心
  • MySQL实战 -- 可重复读 与 虚读

    CREATE TABLE `t` ( `id` int(11) NOT NULL, `c` int(11) DEFAULT NULL, ...

    MachineLP
  • 提前11秒,AI让神经科学家预知了你的决定

    神经科学家的研究来自一项有14名人类受试者参与的实验,当然,这次的选择不是鸡肉饭和牛肉面,而是:

    量子位
  • [读书笔记]C#学习笔记七: C#4.0中微小改动-可选参数,泛型的可变性

    一枝花算不算浪漫
  • python中爬取网页保存文件字符编码问题导致报错解决方案

    UnicodeEncodeError: ‘gbk’ codec can’t encode character ‘\xe7’ in position 53: il...

    kirin
  • 一款基于中间人攻击用于偷窥HTTPs网站流量的秘密代理工具

    我常用的网络分析工具有:Fiddler、Charles 、whistle 、WireShark 和 Tcpdump

    快乐咸鱼每一天
  • python学习笔记7.6-内建模块itertools

    python有一个高级特性就是迭代器,能够提供各种各样的迭代方式,而代码却非常的简单。itertools提供了非常丰富的有关于迭代操作的函数,下面一一介绍。 再...

    锦小年

扫码关注云+社区

领取腾讯云代金券