前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >RuntimeError: size mismatch, m1:[1152 x 1] ,m2:[576 x 192]

RuntimeError: size mismatch, m1:[1152 x 1] ,m2:[576 x 192]

作者头像
狼啸风云
修改2022-09-02 20:25:42
1.2K0
修改2022-09-02 20:25:42
举报

今天跑代码的时候遇到了这个错误: RuntimeError: size mismatch, m1:[1152 x 1] ,m2:[576 x 192] ,at /opt/conda/conda-bld/pytorch_1524

在这里插入图片描述
在这里插入图片描述

调试之后发现是如下有问题: 源代码在这里: 这是class里init中相应的部分

在这里插入图片描述
在这里插入图片描述

def forward的相应的问题

在这里插入图片描述
在这里插入图片描述

问题就在于y1 = self.fc_1(y)这里,fc_1也是同fc一样的全连接层,而全连接层输入的尺寸只有两维! 从图上可以看到,y输出的尺寸是[2,576,1,1] 在y1 = self.fc_1(y)的时候,因为y是四维的,所以会自动变成两维的,具体怎么变呢就是: 假设y是[2,576,1,1],输入全连接层fc_1之后,pytorch会自动将[2,576,1,1]压成[2X576,1X1],这就是二维的了。 所以应该改成如下:

在这里插入图片描述
在这里插入图片描述

在pytorch中,全连接层是通过torch.nn.linear()这个函数实现的,输入的参数只有feature的channels(就是途中的in_features),而size则根据前面的量来自适应的,所以很多人会自动的认为不需要注意输入的shape,自适应即可。这时全连接层就会帮你把你超过二维的shape给自动调整成二维的,这时就会报错啦。所以要自己调整fc的输入shape,只要batchSize和Channel数即可。

在这里插入图片描述
在这里插入图片描述
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-12-09 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档