腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
上
采样
卷积
没有
参数
、
、
、
我读过许多关于
卷积
神经网络用于超分辨率或图像分割或自动编码器等的论文。他们在不同的问题中使用了不同类型的
上
采样
、aka反
卷积
和here
上
的讨论。中有一个函数Here在Keras中有一些 我实现了Keras one: x = tf.keras.layers.UpSampling1D(size=2)(x) 我用的是从一个超分辨率的repo here
上
偷来的self.r], [[0,0]]) # (1, r*w, b) X = tf.transpose(X, [2,1,0
浏览 75
提问于2020-04-15
得票数 0
回答已采纳
1
回答
在Keras
上
使用ConvXDtranspose
、
、
我想使用Keras的layer Conv2Dtranspose和Conv3Dtranspose来做反
卷积
(同时进行
上
采样
和
卷积
)。我可以构建和编译我的模型,但
上
采样
部分似乎不起作用,即使我修改了
参数
dilate_rate。或者我误解了这一层是如何工作的?
浏览 11
提问于2018-02-10
得票数 1
回答已采纳
2
回答
上
卷积
实现:实现来自哪里以及
上
采样
的效果
、
人们以不同的方式实现上
卷积
。基本
上
,一种是进行分数步长
卷积
,另一种是首先对图像进行
上
采样
,然后进行
卷积
。我在和UNet的实现中看到了第一个,但是我还
没有
在发表的论文的任何官方实现中看到第二个。不知道有
没有
人能举个例子,在出版物的官方源代码中使用第二种方法? 此外,在第二种方法中,
上
采样
函数可以具有不同的行为(例如双线性、线性等)。但论文的作者通常只说“上
卷积
/
上
采
浏览 1
提问于2017-11-09
得票数 2
1
回答
次
采样
层与
卷积
层的差异(
卷积
神经网络)
、
、
、
有人能解释
卷积
和次
采样
层之间的区别吗? 在
卷积
步骤中,我们定义了带权值的
卷积
滤波器(),而在次
采样
步骤中,我们应用
卷积
滤波器,并使用大步和池来确定它们的大小,这是正确的吗?
浏览 2
提问于2018-12-05
得票数 0
回答已采纳
2
回答
为什么U网的
上
采样
层
没有
激活功能?
、
、
、
在中,所有层都有激活函数,但在上
采样
层中似乎
没有
激活函数(即使用转置
卷积
)。为什么这比激活功能提供更高的效率?根据我的理解,激活函数提供非线性。因此,这个问题实际
上
是,在转置
卷积
中保持线性而在正则
卷积
上
保持非线性有什么好处。在这些层中有一个激活函数不是总是最好的吗? 我唯一的直觉是,也许,他们试图保持与常规形态插值方法密切相关的
上
采样
。
浏览 0
提问于2019-01-22
得票数 2
回答已采纳
3
回答
为什么扩张的
卷积
层不会降低感受野的分辨率?
、
、
我试着去理解扩张
卷积
。我已经熟悉了通过用零填充空白来增加内核大小的方法。它有助于覆盖更大的区域,更好地了解更大的物体。但是,有人能给我解释一下,扩张的
卷积
层是如何保持感受野的原始分辨率的吗?如何在
没有
零填充的情况下使用具有明显更大的核的扩张
卷积
,并且输出尺寸将是一致的。 deeplabV3+结构: ? 我很困惑,因为当我在这里看到这些解释时: ? 膨胀
卷积
层的输出尺寸(3x3)更小? 非常感谢你的帮助! 卢卡斯
浏览 93
提问于2019-03-06
得票数 2
1
回答
keras中的UpSampling2D函数和Conv2DTranspose函数有什么不同?
、
、
、
、
在这段代码中,UpSampling2D和Conv2DTranspose似乎可以互换使用。我想知道为什么会发生这种事。from keras.layers import Input, Conv2D, MaxPooling2D, UpSampling2D, concatenate, Conv2DTranspose, BatchNormalizati
浏览 10
提问于2018-12-06
得票数 39
回答已采纳
1
回答
“跳过”方法是如何用于过
采样
的?(完全
卷积
神经网络)
、
、
我正在研究用于图像分割的完全
卷积
神经网络,到目前为止,我已经研究和理解了反分裂网络。遵循本教程(
上
采样
),我无法真正理解“跳过”方法是如何工作的。我知道如何将最大解池和转置
卷积
应用于过
采样
,但是“跳过”方法与这两种方法有什么关系呢? 为什么我们要用这种“跳过”的方法呢?最大解池和转置
卷积
不足以提高
采样
和返回一个更好的分辨率地图?
浏览 0
提问于2019-12-01
得票数 2
回答已采纳
4
回答
在ResNet中,下
采样
是如何工作的?
、
、
、
、
在这个pytorch代码示例中,它们将下行示例定义为第44行中的变量。第58行使用它作为函数。作为CNN的观点和python代码的观点,这个下样例是如何工作的。我寻找的是下样是否有任何内置功能。但事实并非如此。 expansion = 1 super(BasicBlock, self).__init__()
浏览 0
提问于2019-04-15
得票数 8
回答已采纳
1
回答
深度置信网络与
卷积
神经网络在非图像分类任务中的性能
、
、
、
、
我的问题是,如果我要通过无监督学习来完成一项非图像多类分类任务,那么在不考虑数据集也很重要这一事实的情况下,使用深度信念网络或
卷积
神经网络更好吗? 与图像分类任务相关的一个类似问题在这里被问到了。答案指出,DBN在非图像分类任务
上
可能比CNN表现更好,但是否有任何证据可以证明这一点,或者有任何论文对此进行了更深入的探讨?
浏览 10
提问于2020-01-28
得票数 0
回答已采纳
1
回答
空间变压器网络与变形
卷积
、
、
、
可变形
卷积
https://arxiv.org/abs/1703.06211从文件中:对我来说,STNs增加了输入图像,而DC增加了内核形状。
浏览 0
提问于2018-03-23
得票数 5
1
回答
使用keras在单个图层
上
应用
卷积
、
、
、
、
现在,我想从改进的VGG16网络中获得每一层的输出,并在每一层
上
应用
卷积
,然后将它们向上
采样
到相同的大小并将它们相加。这是为了识别图像中的重要区域。#upsample it to the size of the input image #store this in hypercolumns list 最后,在对所有图层进行
上
采样
后现在,我对如何在不创建模型和进行
上
采样
的情况下应用
卷积
感到困惑。在keras中有
没有</em
浏览 16
提问于2019-09-12
得票数 0
回答已采纳
2
回答
什么是亚像素
卷积
?
、
、
、
、
现在,我使用转置
卷积
对图像进行
上
采样
。但我听说过很多关于亚像素
卷积
做得更好的说法。那么什么是亚像素
卷积
以及它背后的数学原理呢?为什么它比转置
卷积
更好?(举个例子就好了)
浏览 2
提问于2020-01-22
得票数 5
1
回答
在完全
卷积
网络中,
上
采样
层的“学习倍数”应该是什么?
、
、
、
、
我试着训练一个完全
卷积
网络(FCN)来进行密集的预测。我们将2×
上
采样
初始化为双线性插值,但允许学习
参数
。 当我阅读他们的时,这些层的学习倍数为零。
浏览 1
提问于2017-04-10
得票数 1
回答已采纳
1
回答
特征图不下
采样
时转置
卷积
的必要性
、
、
、
、
本文提出了一个对称的发电机网络,它包含一个
卷积
层和一个反
卷积
(反
卷积
)层。文中还提到,使用1的步长和适当的填充以确保特征映射大小与输入图像大小相同。我的问题是,如果
没有
下
采样
,那么为什么使用转置
卷积
层呢?不能只用
卷积
层来建造发电机吗?我是不是遗漏了一些关于转置
卷积
层的东西(它是否被用于其他用途)?请帮帮忙。然而,我无法理解这一点,因为在提议的模型中
没有
对特征图进行下
采样
。有人能解释为什么这里的反褶积比
卷积</
浏览 0
提问于2017-06-28
得票数 0
1
回答
Unet到底是什么?
、
、
、
、
每个对称的完全
卷积
网络都是Unet吗? 下
采样
路径和
上
采样
路径之间的跳过连接是否始终需要应用级联运算符而不是总和?如果我们使用sum,有什么不同呢? 我可以假设如果一个网络有不相等的no。在上
采样
层和下
采样
层中,它是FCN而不是Unet?
浏览 45
提问于2019-02-03
得票数 0
1
回答
采用混合
采样
率输入的体系结构
、
、
、
假设一个模型是在一维时间序列的多个数据集
上
训练的。这些数据集是以不同的抽样率收集的。我计划使用
卷积
神经网络来处理这些时间序列进行分类。我的问题是,在这种情况下,我能对数据或模型本身做些什么来让它“知道”
采样
频率吗?我只是天真地试着把他们训练在一起,我得到了一个很好的结果。是否有现有的工程?我试着在谷歌
上
搜索,但到目前为止
没有
发现任何值得注意的地方。 我对重
采样
数据犹豫不决,因为我不想通过将插值方法变成一个超
参数
来意外地删除/引入重要的信息。
浏览 0
提问于2021-01-23
得票数 2
2
回答
为什么膨胀
卷积
计算效率高?
、
、
、
、
ENet效率的基础是膨胀
卷积
(除其他外).我理解保存空间分辨率,它是如何计算的,等等,但是我不明白为什么它在计算和内存方面比例如最大池便宜。 ENet:
浏览 7
提问于2021-02-16
得票数 2
回答已采纳
1
回答
我还是不知道在看CS231演讲后反褶积是如何工作的,我需要帮助
、
我能理解正常
卷积
,但不太了解过
采样
卷积
。在视频中,他解释说,你慢慢地降低过滤器,并使用每个单独的标量作为权重应用于过滤器中的每个值。我很难理解他是如何得到4x4的输出形状的?是否有计算“上
卷积
”输出的特殊公式?我也搞不懂填充物和它如何影响
上
褶?📷
浏览 0
提问于2018-04-18
得票数 0
1
回答
卷积
神经网络的正确结构是什么?
、
、
、
我已经看到了几种不同的
卷积
神经网络(CNN)的架构。我搞不懂哪一种是标准,以及如何决定使用什么。我并不为所使用的层数或所涉及的
参数
数目感到困惑,而是对网络的组件感到困惑。假设: CL,SL,CL,SL,CM,Softmax
浏览 2
提问于2014-10-17
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券