单阶段检测器训练的时候提出直接用已知的类进行分类和回归,而多阶段检测器先提出proposal,然后根据图像中目标的坐标和大小对proposal进行筛选,之后进行分类和回归,在筛选的时候类是未知的。
(2)深度学习模型的参数是存在内存中还是存在硬盘中?
训练结束后将训练好的模型存入硬盘,需要使用这个模型时从硬盘读入内存,机器学习算法的时间复杂度一般指测试时间。
(3)特征金字塔中特征层级的区分?
高层或深层特征指的是经过层数较多的特征,此时feature map较小。低层或浅层特征指的是经过层数较多的特征,此时feature map较大。
(4)jaccard overlap是什么?
就是IoU,表达式为:
(5)训练中的epoch是什么?
当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个 epoch。然而,当一个 epoch 对于计算机而言太庞大的时候,就需要把它分成多个小块。为什么要使用多于一个 epoch?我知道这刚开始听起来会很奇怪,在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。但是请记住,我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降,优化学习过程和图示。因此仅仅更新权重一次或者说使用一个 epoch 是不够的。随着 epoch 数量增加,神经网络中的权重的更新次数也增加,曲线从欠拟合变得过拟合。
那么,几个 epoch 才是合适的呢?
不幸的是,这个问题并没有正确的答案。对于不同的数据集,答案是不一样的。但是数据的多样性会影响合适的 epoch 的数量。比如,只有黑色的猫的数据集,以及有各种颜色的猫的数据集。
(6)L2归一化是什么?
L2范数归一化就是向量中每个元素除以向量的L2范数。
(7)weight decay是什么?
等价于L2正则化。
(8)卷积核正则化的意义?
对神经网络初始化的时候有的网络会在初始时对卷积核进行正则化,但是在训练的过程中不会。有的网络甚至不通过反传梯度而通过卷积核的初始化来寻找最优参数。