腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1578)
视频
沙龙
1
回答
深度
学习
中
的
平均
池
化
层
和
梯度
伪
影
、
、
、
、
我知道在卷积
层
中
,核
的
大小需要是步幅
的
倍数,否则它会在
梯度
计算中产生
伪
影
,比如棋盘问题。现在,它在
池
化
层
中
也是这样工作
的
吗?我在某处读到,最大
池
化
也会导致类似的问题。以鉴别器
中
的
这一行为例: self.downsample = nn.AvgPool2d(3, stride=2, padding=1, cou
浏览 30
提问于2021-03-20
得票数 1
1
回答
卷积神经网络
中
如何
学习
汇聚
层
的
梯度
?
、
假设我们可以在训练神经网络时计算误差函数
的
layerwise Hessian,则
池
层
的
误差子面将是平坦
的
。??没有权数需要
学习
,为汇集
层
,但为例。max
池
可以在不同
的
迭代中有不同
的
值吗?
浏览 0
提问于2020-03-22
得票数 1
回答已采纳
1
回答
在CNN中使用全局
和
池
代替全局
平均
池
、
、
、
我有一个CNN,它
的
基本结构如下,我拥有的网络是独立于输入大小
的
,所以我可以在不同大小
的
输入上使用它。但是,全局
平均
池
操作使用输入大小来
平均
一个通道
中
的
所有值。例如,如果我对图像进行零点处理以改变其输入大小,则在全局
平均
池
之后得到一个不同
的
向量。,在将
平均
<
浏览 5
提问于2021-08-20
得票数 0
2
回答
卷积神经网络
中
的
反向传播
、
、
、
考虑具有以下结构
的
卷积神经网络: 由于正向反传方程与softmax
层
完全连接,因此可以很容易地进行计算。 )因为我们使用
的
是
平均
池
浏览 4
提问于2016-04-14
得票数 5
1
回答
关于
深度
学习
快速入门(Knet.jl)
的
朱莉娅语言
、
、
julia语言
深度
学习
框架,这是Knet.jl,
的
快速入门using Knet, MLDatasets, IterTools复杂类型Conv有三个字段: w、b
和
fW矩阵
和
x矩阵
的
内积是用conv4 (c.w,x)计算
的<
浏览 1
提问于2021-02-10
得票数 1
5
回答
如何修复这些消失
的
渐变?
、
、
、
、
我正试图为twitter情感分类培养一个
深度
网络。它由一个嵌入
层
(word2vec)、一个RNN
层
、2个conv
层
和
2个密集
层
组成。对所有激活函数使用ReLU。我刚刚开始使用张力板&注意到我
的
卷积
层
重量似乎有极小
的
梯度
(见图)。我相信我有消失
的
梯度
,因为CNN过滤权重
的
分布似乎没有变化&相对于权重,
梯度
是非常小
的</
浏览 0
提问于2018-03-08
得票数 5
1
回答
如何用
梯度
下降从随机
学习
推广到批量
学习
?
、
我明白如何推导公式并实现
深度
神经网络
的
随机
梯度
下降(尽管隐
层
的
总导数魔术有点超出了我
的
极限)。在随机反向传播
中
,大多数计算涉及到对神经元激活
的
误差
的
导数。但是在批量训练
的
情况下,每个训练示例有一个激活。你
平均
了
浏览 0
提问于2018-08-22
得票数 2
1
回答
利用Tensorboard检测火炬
中
消失/爆炸
梯度
的
最佳方法
、
、
我怀疑我
的
Py手电筒模型已经消失了。我知道我可以跟踪每个
层
的
梯度
,并用writer.add_scalar或writer.add_histogram记录它们。但是,对于一个层数相对较多
的
模型,在TensorBoard日志
中
拥有所有这些直方图
和
图形就有点麻烦了。我不是说它不工作,只是有点不方便有不同
的
图表
和
直方图为每一
层
,并滚动它们。我正在寻找一个图,其中y轴(垂直)表示
梯度
值(特定
层
浏览 1
提问于2021-08-03
得票数 2
1
回答
卷积
层
的
CNN反向传播
、
、
、
、
我正在构建一个只有卷积
层
的
CNN (到目前为止)。如何正确地支持Conv
层
?如果任何人有任何关于其他
层
的
backprop<
浏览 1
提问于2016-09-05
得票数 1
1
回答
在tensorflow 2
中
从头开始训练keras应用程序
、
为了对不同
的
框架进行基准测试,我想从头开始训练一个初始v3网络。下面是构建模型
的
代码片段: IMAGE_RES = 229model = tf.keras.applications.InceptionV3(include_topNone,classes=NUM_CLASSES) model.build(input_shape=(None, IMAGE_RES , IMAGE_RES , channels)) 根据keras官方网站
的
说法,参数weight=None意味着随机初始
化
。这是
浏览 15
提问于2020-12-04
得票数 0
回答已采纳
5
回答
深度
学习
和
传统的人工神经网络机器
学习
有什么区别?
、
、
、
你能简单地解释一下
和
传统机器
学习
之间
的
区别吗?要使一个神经网络变得“深”需要多少个层次?这都是市场炒作吗?
浏览 14
提问于2016-04-12
得票数 7
回答已采纳
2
回答
机器
学习
模型,它有一个未定义
的
输入大小但有一个固定
的
输出?
、
、
我对ML不太了解,但我似乎能想出如何训练这样
的
东西。如果你们能列举一些可行
的
方法,谢谢。
浏览 0
提问于2020-04-29
得票数 1
回答已采纳
1
回答
卷积神经元网络体系结构的确定
、
卷积神经元网络体系结构的确定我读过很多关于神经元网络,反向传播,随机
梯度
下降,过度拟合,正则
化
等等
的
文章。有一些“难”
的
数学规则:这很容易理解。我想把这些植物分类: 我研究了mnist数据库(手写数字数据库)
的
示例--为什么使用这些体系结构
中
的
大多数示例:conv5x5 ->
池
(2,最大) -> Conv5x5?我已经绘制了第一个隐藏
浏览 2
提问于2017-03-12
得票数 0
回答已采纳
1
回答
越来越大
的
正WGAN-GP损失
、
、
、
、
我正在调查在PyTorch中使用具有
梯度
惩罚
的
Wasserstein GAN,但始终得到大
的
、正
的
发电机损失,并随着时间
的
推移而增加。我大量借鉴了,但我使用
的
是中使用
的
鉴别器
和
生成器损失,因为如果我尝试使用Caogang实现中使用
的
one
和
mone参数调用.backward(),就会得到Invalid gradient at index我在一个增强
的
WikiArt数据集(>400k 64x64
浏览 9
提问于2018-11-26
得票数 3
1
回答
Tensorflow型微神经网络
层
的
建立
、
、
我试着在我
的
ESP32上运行一些ML,并且我想使用Tensorflow微。但我不太明白,它们是如何形成层层
的
。下面是如何训练人员检测模型
的
示例: micro_op_
浏览 1
提问于2020-10-28
得票数 0
回答已采纳
2
回答
深度
神经网络用于图像识别的精度,浮动还是双倍?
、
、
、
虽然在c++
中
通常是32位
和
64位,但是它们在速度上并没有太大
的
差异,但是使用浮点数可以节省一些内存。有了一个神经网络,使用作为激活函数
的
是什么,如果我们能够选择神经网络
中
的
哪些变量可以浮动,或者可以双倍浮动,以节省内存,而不使神经网络无法执行呢?虽然训练/测试数据
的
输入
和
输出肯定可以浮动,因为它们不需要双重精度,因为图像
中
的
颜色只能在0-255
的
范围内,当标准
化
<em
浏览 1
提问于2016-11-10
得票数 6
1
回答
为什么SELU激活函数保持为0?
、
、
摘自Aurelien Geron
的
著作“与Scikit一起进行机器
学习
,Keras & Tensorflow",第337页: “作者指出,如果建立一个完全由密集
层
组成
的
神经网络,并且所有隐藏
层
都使用SELU激活函数,则网络将自我规范
化
:每个
层
的
输出将倾向于,在训练期间保持0
的
均值
和
1
的
标准差,从而解决了消失/爆炸
梯度
问题。我
的
问题是:
浏览 3
提问于2020-04-05
得票数 2
1
回答
为什么在训练CNN时准确率不会提高?
、
、
反过来,这些光谱图被转换成480x640x3矩阵(像素高度、像素宽度、RGB值),这些矩阵又被分成三个重叠50%
的
第二段,得到大小为480x64x3
的
最终输入矩阵。我写
的
网络旨在复制这篇(https://arxiv.org/pdf/1802.09697.pdf)论文中描述
的
网络。该网络有八种类型可供
学习
,标记为0-7。 在训练时,即使在几个时期之后,准确率仍然下降到0,125 (相当于纯猜测(1/8))。那么我到底做错了什么呢?verbose=0) pri
浏览 51
提问于2019-04-28
得票数 1
回答已采纳
1
回答
为什么在构建卷积神经网络时,我们要在TensorFlow
中
创建一个由随机数组成
的
补丁?
、
、
我正在复习TensorFlow教程,名为“面向专家
的
深度
MNIST”(我希望对“专家”这个词
的
理解非常宽松!) initial = tf.truncated_normal(shape, stddev=0.1)它只输出截断正态分布
的
值在我看来,我只是把它看作是一个随机数
的
矩阵(ok,张量)。为了实际创建补丁,他们使用以下代码: W_conv1 = weight_var
浏览 1
提问于2016-09-11
得票数 0
1
回答
车牌定位
的
垂直
梯度
计算
、
、
我是新
的
MATLAB,并试图实现以下步骤
的
车牌定位:到目前为止,这是我
的
进展。1) - img(i,j) );end 输出:如果有人能指点我在这里做
的
错事,我会非常感激
的
。
浏览 5
提问于2016-02-24
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深入学习卷积神经网络中卷积层和池化层的意义
深入学习卷积神经网络中卷积层和池化层的意义(一)
掌握可视化卷积神经网络模型,带你畅游图像识别技术领域
从0到1:神经网络实现图像识别(五)
使用CNN生成图像先验,实现更广泛场景的盲图像去模糊
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券