神经网络与深度学习

要完成本周的习题,需要对NumPy和矩阵运算比较熟悉。如果做题时不太确定答案是哪一个,可以将代码运行一下,就可以很清楚答案。比如我开始不太清楚矩阵的AxB运算和numpy.dot(A, B)有什么不同,实际运行之后才明白x运算是元素逐一相乘,而numpy.dot则是数学上的矩阵乘法运算。

闲话少说,下面就来逐个分析习题。

通常一个神经元就是对输入做线性运算,然后使用激活函数(sigmoid、tanh、ReLU等等)处理得到输出,所以答案是选项2。

这个应该没啥好说的,答案是选项2,课程中也简单说明了为什么会采用这样的损失函数。

列向量的第二轴的大小为1, 直接可以排除1、2、4选项,而且(32, 32, 3)的元素个数为32x32x3,很容易确定答案就是选项3。

这个就是python中的广播机制。b是列向量,会展开为(2, 3)的矩阵,结果也是shape为(2, 3)的矩阵,答案是选项1。

第一次我就错了这道题,虽然知道矩阵大小不等,会自动应用python中的广播机制。但什么情况下广播机制有效,不是很清楚,去查了一下资料:大小为1的轴(axis)才会应用广播机制。而本题中,两个矩阵大小不同,而且不同大小的轴并没有等于1的。所以实际上a和b是不相容的矩阵,无法按元素进行乘法运算。

执行这段代码,提示如下:

ValueError: operands could not be broadcast together with shapes (4,3) (3,2)

答案是选项2。

这个应该很容易理解,答案是选项4。

注意,这个和第5题不同,np.dot(a, b)进行的是数学上的矩阵乘法运算,矩阵乘法运算需要满足a的列数与b的行数相等,结果的shape为(a的行数,b的列数),所以答案是选项2。

这个实际上也涉及到python的广播机制,答案是选项4。

a*b做的是按元素进行乘法运算,如果两个矩阵shape不同,就需要判断能否应用广播机制,本题中b的shape为(3, 1),可以broadcasting后shape为(3, 3),所以答案是选项1。

这个只要具有基本的数学知识:

所以答案是选项2。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180530G0DLG600?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券