腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
在
神经网络
类
定义
中
使用
多个
ReLU
对象
?
、
、
最近,我观察到
在
定义
神经网络
时,我们为每一层
定义
了单独的
ReLU
对象
。
为什么
我们不能在任何需要的地方
使用
相同的
ReLU
对象
。例如,不像这样写- def __init__(self): self.
ReLU
_1 = nn.
ReLU
()self.fc2 = nn.Linear(500, 300
浏览 17
提问于2020-06-26
得票数 0
回答已采纳
1
回答
存贮与装载火炬
神经网络
、
、
我正在
使用
神经网络
创建的 return x 是你需要做的,但
为什么
我们需要
定义
神经网络
类
呢?如果我将一个具有不同体系结构的
神经网络
加载到我
在
类
中指定的体系结构,那
浏览 0
提问于2018-12-15
得票数 0
回答已采纳
1
回答
nn.Module和nn.Sequential有什么区别?
、
我只是在学习如何
使用
PyTorch作为初学者。如果有人熟悉PyTorch,你能告诉我nn.Module和nn.Sequential的区别吗?我的问题是 有规律地
使用
哪种方法来建立模型?
浏览 3
提问于2021-08-01
得票数 4
回答已采纳
1
回答
TensorFlow模型语法
、
、
、
、
我是
神经网络
和Tensorflow的新手model = tf.keras.models.Sequential([tf.keras.layers.Conv2D(32, (3,3), activation='
relu
', input_shape=(150, 150, 3)), tf.keras.lay
浏览 3
提问于2020-08-16
得票数 0
回答已采纳
1
回答
为什么
我们不应该在同一层中
使用
多个
激活函数?
、
我是一位新手,当谈到ML和
神经网络
时,我主要是通过coursera视频和一些kaggle/github在线学习。所有我见过的应用
神经网络
的例子或案例都有一个共同点--它们
在
与特定层相关的所有节点中
使用
特定类型的激活函数。我确实找到了一个,它基本上说,如果我们每个层只
使用
一个激活函数,那么管理网络就更容易了。还有其他好
浏览 1
提问于2020-07-28
得票数 2
回答已采纳
2
回答
MXNet: nn.Activation对nd.
relu
?
、
我是MXNet的新手(我正在Python3
中
使用
它) self.ramp = mx.gluon.nn.Activation(activation='
relu
') x = mx.nd.
relu
(self.cnn(x)) x = mx.nd.
relu
(self.bn
浏览 6
提问于2017-09-18
得票数 3
回答已采纳
2
回答
神经网络
中
的激活函数
、
、
、
、
我有一组关于
神经网络
中
各种激活函数的
使用
的问题。如果有人能给我解释的话,我会非常感激的。
为什么
Sigmoid不用于多
类
分类?
为什么
我们在所有负值的回归问题中不
使用
任何激活函数?
为什么
我们
在
计算average='micro'分类时
使用
multi_class?
浏览 0
提问于2019-11-13
得票数 -1
回答已采纳
1
回答
如何在人工
神经网络
中
设置偏差,将西格蒙德函数转换为
ReLU
函数?
、
、
、
我试图通过人工
神经网络
建立一个数据预测模型。下面的代码是通过许多书籍创建的基于Python的ANN代码的一部分。此外,预测值与实际值之间的误差率不低于19%。我环顾了一个月,找出了如何构建
ReLU
和偏差,但是我找不到偏见和
ReLU
的范围。 Q1 =如何将Sigmoid转换为
ReLU
,以及如何向代码
中
添加偏差?Q3 =,如果我将Sigmoid更改为
ReLU
,是否必须将数据集设置为0.0~1.0范围?这是因为Sigmoid函数接受0.0~1.0范围的数据,但我不知道
ReLU
浏览 0
提问于2018-12-21
得票数 0
1
回答
设置
多个
隐藏层的sklearn for分类器激活参数
、
、
、
、
我设计了一个
神经网络
,它有两个隐藏层,具有不同的激活函数。如何
使用
sklearn.neural_network.MLPClassifier库为每一层设置不同于其他层的激活函数?clf = MLPClassifier(alpha=1e-5 ,hidden_layer_sizes=(10,5),activation=['tanh','
relu
浏览 58
提问于2021-05-29
得票数 1
1
回答
使用
神经网络
学习分类值的分布
、
、
、
、
使用
神经网络
学习分类值的分布 其目的是
使用
神经网络
对一维输入进行分类。应该对两个
类
进行分类,即A和B。用于确定
类
的每个输入都是一个介于0.0和1.0之间的数字。现在我想训练一个
神经网络
,它可以学习将0.4到0.6范围内的值分类为B,其余的分类为A。因此,我需要一个可以近似
类
的上下界的
神经网络
。我之前的尝试都没有成功-
神经网络
总是为所有的输入返回50%的概率,并且损失
在
时期中不会减少。
使用</
浏览 25
提问于2019-04-24
得票数 1
回答已采纳
1
回答
为什么
ReLU
是一个非线性激活函数?
、
、
、
、
据我所知,
在
深度
神经网络
中
,我们
在
加权(w)和偏置(B) (z := w * X + b | a := g(z))之后
使用
激活函数(g)。我看到Sigmoid和Tanh激活函数使我们的模型非线性,但我发现
ReLu
(取0和z的最大值)可以使模型非线性. 假设每个Z都是正的,那么就好像没有激活函数.那么,
为什么
ReLu
要建立一个非线性的
神经网络
模型呢?
浏览 1
提问于2018-09-21
得票数 11
回答已采纳
1
回答
多层维度的缩减是否允许
在
最终表示
中
存储更多的细节?
、
来自:,
定义
了以下自动编码器 def __init__(self): return x 从Autoencoder
类
中
,我们可以看到784个特性经过一系列转换,并被转换为16个特性。例如,
为什么
我们不执行下面的操作序列呢?784 to 256或者也许512 to 256 256 to 1
浏览 0
提问于2020-05-22
得票数 0
回答已采纳
1
回答
没有梯度消失函数的
Relu
是可能的吗?
、
在
人工
神经网络
中
,x>0
中
的相对梯度为1。 然而,
在
x=<0
中
,我想知道
在
深度
神经网络
中
,梯度为0,并且可能存在梯度消失问题。如果像y=x这样的激活函数(对于所有的x)没有梯度消失问题,
为什么
我们不在深层
神经网络
中
使用
这个函数呢?Y=x(所有x)有什么副作用吗?(也许,
在
深层
神经网络
中
,重量可能无限大.然而,我认为这
浏览 0
提问于2020-04-28
得票数 1
回答已采纳
1
回答
给定坐标数据的图像分割
、
、
、
、
我试图建立一个模型来训练他们,然后预测图像将正确地对应于这四个部分
中
的每一个。提前感谢
浏览 1
提问于2022-05-26
得票数 0
1
回答
具有图像数据和预提取特征的CNN模型
、
、
、
、
我正在尝试实现一个CNN model来将一些图像分类到相应的
类
中
。图像大小为64x64x3。
浏览 1
提问于2018-04-14
得票数 0
回答已采纳
1
回答
为什么
在
Why池之前
使用
relu
?
、
在
本除草
神经网络
教程
中
图像
中
的像素值不是已经是正数了吗?有人能给我一些关于这个问题的建议吗?(init function) x = F.max_pool2d(F.
relu
(self.conv1(x)), (2, 2)) # Max
浏览 4
提问于2020-01-17
得票数 1
回答已采纳
2
回答
神经网络
与线性回归梯度下降的反向传播
、
、
、
、
我试图理解“反向传播”,因为它是
使用
梯度下降优化的
神经网络
。读一读文学作品,似乎做了几件事。 对损失函数执行梯度下降,
使用
这些权重来获得新的权重。如果没有,
为什么
只
在
神经网络
中
引用,
为什么
不引用GLMs (广义线性模型)。他们似乎都在做同样的事-我可能错过了什么?
浏览 11
提问于2016-06-28
得票数 4
回答已采纳
2
回答
为什么
不在Pytorch中
使用
.__init__().__init__(模型,自我)
、
、
、
、
对于torch.nn.Module() 根据官方文档:所有
神经网络
模块的基
类
。你的模型也应该是这个
类
的子类。模块还可以包含其他模块,允许将它们嵌套在树结构
中
。您可以将子模块指定为常规属性。nn.Conv2d(1, 20, 5) x = F.
relu
(self.conv1(x)) return F.
relu
(self.co
浏览 15
提问于2020-04-18
得票数 3
3
回答
在
回归的情况下,
神经网络
的激活函数应该是什么?
、
我的问题是基于的理解
在
神经网络
中
,神经元由阈值(激活)函数激活,在上面的例子
中
是sigmoid函数。对于回归问题,我们需要激活函数吗?向Souvik致敬
浏览 9
提问于2017-06-29
得票数 0
1
回答
如何
使用
OpenCV的Android实现激活功能?
、
、
我是OpenCV和,我正在尝试
使用
OpenCV的Java实现
神经网络
。除了
ReLU
激活函数之外,我已经找到了所需的所有函数。所以我决定用Java手动实现这个函数。我的实现逐个遍历Mat的元素,
使用
Mat.get()访问元素,修改负值,并
使用
Mat.put()将它们写回。if (value[0] < 0) { input.put(0, i, value);} 我分析了我的代码,看起来我的
ReLU
使用</
浏览 4
提问于2017-04-20
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习笔记12:卷积神经网络的Tensorflow实现
Pytorch 学习笔记之自定义 Module
图解CNN系列二:卷积神经网络各层结构
嵌入式视觉领域的机器学习
快速掌握TensorFlow(三):激励函数
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券