吴恩达深度学习笔记 course4 week4 测验

第 1 个问题

1 point

1. 第 1 个问题

Face verification requires comparing a new picture against one person’s face, whereas face recognition requires comparing a new picture against K person’s faces.

True                                           √

False

第 2 个问题

1 point

2. 第 2 个问题

Why do we learn a function d(img1, img2)d(img1,img2) for face verification? (Select all that apply.)

We need to solve a one-shot learning problem.                  √

Given how few images we have per person, we need to apply transfer learning.

This allows us to learn to recognize a new person given just a single image of that person.                               √

This allows us to learn to predict a person’s identity using a softmax output unit, where the number of classes equals the number of persons in the database plus 1 (for the final “not in database” class).

第 3 个问题

1 point

3. 第 3 个问题

In order to train the parameters of a face recognition system, it would be reasonable to use a training set comprising 100,000 pictures of 100,000 different persons.

True

False                        √

第 4 个问题

1 point

4. 第 4 个问题

Which of the following is a correct definition of the triplet loss? Consider that \alpha > 0α>0. (We encourage you to figure out the answer from first principles, rather than just refer to the lecture.)

max(||f(A)-f(N)||^2 - ||f(A)-f(P)||^2 + \alpha, 0)max(∣∣f(A)−f(N)∣∣2−∣∣f(A)−f(P)∣∣2+α,0)

max(||f(A)-f(P)||^2 - ||f(A)-f(N)||^2 + \alpha, 0)max(∣∣f(A)−f(P)∣∣2−∣∣f(A)−f(N)∣∣2+α,0)                                    √

max(||f(A)-f(N)||^2 - ||f(A)-f(P)||^2 - \alpha, 0)max(∣∣f(A)−f(N)∣∣2−∣∣f(A)−f(P)∣∣2−α,0)

max(||f(A)-f(P)||^2 - ||f(A)-f(N)||^2 - \alpha, 0)max(∣∣f(A)−f(P)∣∣2−∣∣f(A)−f(N)∣∣2−α,0)

第 5 个问题

1 point

5. 第 5 个问题

Consider the following Siamese network architecture:

The upper and lower neural networks have different input images, but have exactly the same parameters.

True                                                                         √

False

第 6 个问题

1 point

6. 第 6 个问题

You train a ConvNet on a dataset with 100 different classes. You wonder if you can find a hidden unit which responds strongly to pictures of cats. (I.e., a neuron so that, of all the input/training images that strongly activate that neuron, the majority are cat pictures.) You are more likely to find this unit in layer 4 of the network than in layer 1.

True                                                       √

False

第 7 个问题

1 point

7. 第 7 个问题

Neural style transfer is trained as a supervised learning task in which the goal is to input two images (xx), and train a network to output a new, synthesized image (yy).

True

False                                                       √

第 8 个问题

1 point

8. 第 8 个问题

In the deeper layers of a ConvNet, each channel corresponds to a different feature detector. The style matrix G^{[l]}G[l] measures the degree to which the activations of different feature detectors in layer ll vary (or correlate) together with each other.

True                                                                     √

False

第 9 个问题

1 point

9. 第 9 个问题

In neural style transfer, what is updated in each iteration of the optimization algorithm?

The pixel values of the generated image GG                                  √

The pixel values of the content image CC

The neural network parameters

The regularization parameters

第 10 个问题

1 point

10. 第 10 个问题

You are working with 3D data. You are building a network layer whose input volume has size 32x32x32x16 (this volume has 16 channels), and applies convolutions with 32 filters of dimension 3x3x3 (no padding, stride 1). What is the resulting output volume?

30x30x30x16

30x30x30x32                                              √

Undefined: This convolution step is impossible and cannot be performed because the dimensions specified don’t match up.

中文版-----------------------------------------------------------------------------------------------------------------------摘自:https://blog.csdn.net/u013733326/article/details/80736992

1.面部验证只需要将新图片与11个人的面部进行比较,而面部识别则需要将新图片与KK个人的面部进行比较。

】正确

【 】错误

2.在人脸验证中函数d(img1,img2)d(img1,img2)起什么作用?

】只需要给出一个人的图片就可以让网络认识这个人。

】为了解决一次学习的问题。

【 】这可以让我们使用softmax函数来学习预测一个人的身份,在这个单元中分类的数量等于数据库中的人的数量加1。

Softmax output unit has been removed.  Softmax 输出单元在这里已经被去掉了。

【 】鉴于我们拥有的照片很少,我们需要将它运用到迁移学习中。

We don’t need to use transfer learning.  我们不需要使用迁移学习。

3.为了训练人脸识别系统的参数,使用包含了10万个不同的人的10万张图片的数据集进行训练是合理的。

【 】正确

】错误

More than one pictures per person are needed.  每个人需要多张照片的。

4.下面哪个是三元组损失的正确定义(请把 αα也考虑进去)?

】max(||f(A)−f(P)||2−||f(A)−f(N)||2+α,0)max(||f(A)−f(P)||2−||f(A)−f(N)||2+α,0)

【 】max(||f(A)−f(N)||2−||f(A)−f(P)||2+α,0)max(||f(A)−f(N)||2−||f(A)−f(P)||2+α,0)

【 】max(||f(A)−f(N)||2−||f(A)−f(P)||2−α,0)max(||f(A)−f(N)||2−||f(A)−f(P)||2−α,0)

【 】max(||f(A)−f(P)||2−||f(A)−f(N)||2−α,0)max(||f(A)−f(P)||2−||f(A)−f(N)||2−α,0)

5.在下图中的孪生卷积网络(Siamese network)结构图中,上下两个神经网络拥有不同的输入图像,但是其中的网络参数是完全相同的。 

】正确

【 】错误

Wee need the same parameters to get f(x(i))f(x(i))  我们需要相同的参数来获得f(x(i))f(x(i))。

6.你在一个拥有100种不同的分类的数据集上训练一个卷积神经网络,你想要知道是否能够找到一个对猫的图片很敏感的隐藏节点(即在能够强烈激活该节点的图像大多数都是猫的图片的节点),你更有可能在第4层找到该节点而不是在第1层更有可能找到。

】正确

【 】错误

7.神经风格转换被训练为有监督的学习任务,其中的目标是输入两个图像 (xx),并训练一个能够输出一个新的合成图像(yy)的网络。

【 】正确

】错误

Images have no labels.  监督学习需要标签,但是这里的图像没有标签。

8.在一个卷积网络的深层,每个通道对应一个不同的特征检测器,风格矩阵G[l]G[l]度量了ll层中不同的特征探测器的激活(或相关)程度。

】正确

【 】错误

9.在神经风格转换中,在优化算法的每次迭代中更新的是什么?

【 】神经网络的参数

】生成图像GG的像素值

【 】正则化参数

【 】内容图像CC的像素值

10.你现在用拥有的是3D的数据,现在构建一个网络层,其输入的卷积是32×32×32×1632×32×32×16(此卷积有16个通道),对其使用3232个3×3×33×3×3的过滤器(无填充,步伐为1)进行卷积操作,请问输出的卷积是多少?

】30×30×30×3230×30×30×32

【 】不能操作,因为指定的维度不匹配,所以这个卷积步骤是不可能执行的。

【 】30×30×30×16

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏瓜大三哥

BP神经网络

BP(Back Propagation)神经网络是1986年由以Rumelhart和McCelland为首的科学家小组提出的,是一种按误差逆传播算法训练的多层前...

31090
来自专栏计算机视觉战队

经典的全连接前馈神经网络与BP

神经网络分类: ? 机器学习的四要素 ? 讨论:线性模型与广义线性模型 对于部分数据来说,其本身就是稀疏,可以通过线性模型直接优化求解,但是实际生活中大多...

52950
来自专栏desperate633

小白也能看懂的BP反向传播算法之Let's practice BackpropagationLets

在上一篇文章小白也能看懂的BP反向传播算法之Into-Backpropagation,我们研究了一个嵌套神经元的反向传播的计算,了解到反向传播本质就是利用链式法...

9420
来自专栏IT派

推荐|数据科学家需要了解的5大聚类算法

IT派 - {技术青年圈} 持续关注互联网、大数据、人工智能领域 聚类是一种涉及数据点分组的机器学习技术。给定一个数据点集,则可利用聚类算法将每个数据点分类...

33270
来自专栏人工智能LeadAI

卷积神经网络 | 深度学习笔记1

一、初识卷积网络结构 01 概览 前面已经做过手写体识别的任务。之前我们只是使用了两层的全连接层,或者根据喜好多加几层。我更喜欢把这样的结构叫做多层感知机,即使...

32270
来自专栏用户2442861的专栏

CNN神经网络的直观解释

卷积神经网络(ConvNets 或者 CNNs)属于神经网络的范畴,已经在诸如图像识别和分类的领域证明了其高效的能力。卷积神经网络可以成功识别人脸、物体和交通信...

16520
来自专栏磐创AI技术团队的专栏

使用Keras进行深度学习(二): CNN讲解及实践

前言:现今最主流的处理图像数据的技术当属深度神经网络了,尤其是卷积神经网络CNN尤为出名。本文将通过讲解CNN的介绍以及使用keras搭建CNN常用模型LeNe...

46940
来自专栏IT派

理解SVM的三层境界(一)

前言 动笔写这个支持向量机(support vector machine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究...

35470
来自专栏机器学习原理

深度学习——CNN(2)池化层怎么反向传播?为什么采用小批量梯度下降?学习率设置

1.8K30
来自专栏机器学习算法工程师

深度学习以及卷积基础

作者:石文华 编辑:龚 赛 介 绍 ? 深度学习是机器学习的一个分支,是基于数据来学习表示数据的一组算法。下面我们列出最受欢迎的一些深度学习算法。 卷...

44680

扫码关注云+社区

领取腾讯云代金券