腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
有没有
比
ReLu
更好
的
使用
乙状结肠
激活
的
情况
neural-network
、
deep-learning
、
activation-function
我正在训练一个复杂
的
神经网络体系结构,其中我
使用
RNN对我
的
输入进行编码,然后,一个具有softmax输出层
的
深度神经网络。 我现在正在优化我
的
架构深度神经网络部分(单元数量和隐藏层
的
数量)。我目前正在对所有的层
使用
sigmoid
激活
。这对于一些隐藏层似乎是可以
的
,但随着层数
的
增加,似乎S型不是最好
的
选择。你认为我应该先对sigmoid进行超参数优化,然后再
使用
ReLu</
浏览 17
提问于2017-06-27
得票数 0
1
回答
训练前用
乙状结肠
,训练用
ReLU
?
rbm
使用
RBM预先训练一个深网,如本例中
的
成果管理制,
激活
函数为sigmoid,使计算变得更加容易。 在
使用
sigmoid
激活
函数学习初始权重以切换到列车阶段
的
ReLU
之后,有什么意义?我想,在任何一个阶段(列车前或列车)和
乙状结肠
或
ReLU
在另一个阶段
使用
会引起很大
的
问题,但由于
ReLU
和
乙状结肠
是相似的小值,它还会使列车前阶段无用吗?从
使用
<em
浏览 0
提问于2016-06-27
得票数 2
3
回答
为什么当我们有
ReLU
的
时候,sigmoid/tanh
激活
函数仍然用于深度神经网络?
neural-network
、
deep-learning
、
activation-function
从各个方面看,
ReLU
比
乙状结肠
或tanh更适合于深层神经网络:在生物学上更合理性能
更好
我只看到sigmoid/tanh
的
一个优点:它们是有界
的
。这意味着当你继续训练
的
时候,你
的
活动不会爆炸,你
的
网络参数也不会飞向天空。 为什么我们不应该忘记
乙状结肠
/坦克
的
深层神经网络呢?
浏览 0
提问于2016-07-10
得票数 3
回答已采纳
1
回答
神经网络
激活
函数
的
适当选择
machine-learning
、
neural-network
我不完全理解关于第2点
的
问题,这是解决所有层应用相同
激活
函数
的
好方法,还是对不同层应用不同
激活
函数
的
更好
的
解决方案?应用sigmoid函数是一个好
的
选择吗?对中间层
使用
Sigmoid函数是否是一个好
的
选择?
浏览 2
提问于2018-05-15
得票数 0
回答已采纳
1
回答
如何在人工神经网络中设置偏差,将西格蒙德函数转换为
ReLU
函数?
python
、
neural-network
、
deep-learning
、
artificial-intelligence
下面的代码是通过许多书籍创建
的
基于Python
的
ANN代码
的
一部分。此外,预测值与实际值之间
的
误差率不低于19%。我试图增加隐藏层
的
数量,但它并没有对错误率产生很大
的
影响。我认为这可能是Sigmoid函数
的
一个限制,而不是考虑偏见。我环顾了一个月,找出了如何构建
ReLU
和偏差,但是我找不到偏见和
ReLU
的
范围。Q1 =如何将Sigmoid转换为
ReLU
,以及如何向代码中添加偏差? Q3 =,如果我将
浏览 0
提问于2018-12-21
得票数 0
1
回答
Tensorflow自动编码器:如何获得有代表性
的
输出?
python
、
machine-learning
、
tensorflow
、
computer-vision
、
autoencoder
(这一层应该起到预处理PCA
的
作用。) 我对自己拍摄
的
照片
使用
了令人满意
的
自动编码器(数组单元格是0-100
的
值): 其中
的
均方根误差 rmse = tf.sqrt首先我
使用
了RM
浏览 1
提问于2017-02-21
得票数 1
7
回答
为什么
使用
tanh作为MLP
的
激活
功能?
machine-learning
、
neural-network
、
hyperbolic-function
我亲自学习神经网络
的
理论,并提出了一些问题。但是有个问题。 如果是这样的话,tanh函数是唯一能够做到这一点
的
浏览 12
提问于2014-06-18
得票数 20
回答已采纳
1
回答
如何在tensorflow模型中重新缩放输出?
python
、
tensorflow
、
keras
我尝试重新缩放模型中
的
输入,以便我
的
模型
的
输出在0,1
的
范围内。但我不想在模型外部
使用
python代码执行此操作,相反,我希望在模型内部执行此操作。我已经尝试
使用
Keras重缩放层,但结果显示值低于0,所以我不确定我在这里做错了什么。
浏览 31
提问于2021-04-03
得票数 1
回答已采纳
2
回答
批标准化是否意味着
乙状结肠
比
ReLUs
更好
地工作?
deep-learning
、
batch-normalization
批归一化和
ReLU
都是消失梯度问题
的
解决方案。如果我们
使用
批处理规范化,那么我们应该
使用
sigmoids吗?或者,即使在
使用
批处理规范时,
ReLU
的
某些特性也使它们具有价值?我认为,在批范数中进行
的
规范化将使零
激活
为负值。这是否意味着批处理规范解决了“死
ReLU
”问题? 但是,tanh和物流
的
连续性仍然有吸引力。如果我
使用
批处理规范,tanh会比
ReLU
更
浏览 0
提问于2018-09-28
得票数 11
1
回答
神经网络是否有完整
的
激活
函数列表及其应用?
neural-network
、
activation-function
我知道一些常见
的
激活
功能,如
乙状结肠
,tanh,
ReLu
,Leaky。甚至听说过一个叫斯维希
的
函数。现在是否有关于其他
激活
功能
的
详细信息和一些应用程序/在哪些场景/数据集/问题上哪些功能表现得
更好
的
比较研究?
浏览 0
提问于2021-07-01
得票数 1
2
回答
对于特定
的
回归问题,我应该
使用
什么
激活
函数?
machine-learning
、
neural-network
、
deep-learning
、
regression
、
activation-function
哪一个更适合于回归问题,创建一个带有tanh/sigmoid和exp(类)
激活
或
ReLU
和线性
的
神经网络?标准是
使用
ReLU
,但它
的
蛮力解决方案,需要一定
的
网络大小,我想避免创建一个非常大
的
网,也是
乙状结肠
更可取,但在我
的
情况
下,回归将输出值范围(0,1e7).也许用线性头
的
乙状结肠
网也能工作?我对你对这个问题
的
看法很好奇。
浏览 0
提问于2019-03-21
得票数 7
回答已采纳
1
回答
人工神经网络-为什么通常在隐藏层中
使用
乙状结肠
激活
函数而不是tanh-
乙状结肠
激活
函数?
machine-learning
、
neural-network
、
normalization
、
activation-function
为什么log-sigmoid
激活
函数是隐藏层中
的
主要选择,而不是tanh-sigmoid
激活
函数?此外,如果我
使用
Z-得分归一化,我是否可以
使用
乙状结肠
激活
函数在隐藏层?
浏览 0
提问于2017-07-15
得票数 1
回答已采纳
1
回答
sigmoid
激活
和softmax输出
的
反向传播
python
、
neural-network
、
backpropagation
我试图建立一个L层神经网络,用于多类分类,输出层中有softmax
激活
,其他层中有sigmoid
激活
。用于培训
的
功能如下所示: def L_layer_model(X, Y, layers_dims, learning_rate=0.01, num_iterations=5000, print_cost我
的
反向传播公式有错误吗?我
使用
的
成本函数是日志丢失。cost's shape is what we expect (e.g. this turns [[17]] into 17
浏览 2
提问于2018-05-14
得票数 0
回答已采纳
1
回答
激活
函数与If else语句
activation-function
我搜索了它,但没有找到满意
的
答案,所以在这里张贴它。有人能在这个问题上说正确的话吗?
激活
函数(如
ReLU
、Sigmoid等)
的
工作方式通常类似于if else语句。例如,如果输入
的
值小于0,那么相同
的
值(如果是
ReLU
,则是max(0,a) )等等。那么问题是为什么如果不
使用
of语句呢?这些函数是不太需要计算,还是在多维数据
情况
下工作得
更好
?赞成
的
论点是,神经网络
的
编程也是用像p
浏览 0
提问于2020-01-07
得票数 1
1
回答
X
的
乙状体为1
python
、
neural-network
、
sigmoid
我刚读了一本“制造你自己
的
神经网络”
的
书。现在,我正在尝试用Python创建NeuralNetwork类。我
使用
乙状结肠
激活
函数。我编写了基本代码并试图测试它。但我
的
实现根本不正常。经过长时间
的
调试和与书中
的
代码进行比较之后,我发现数字很大
的
sigmoid是1,因为Python对它进行了舍入。我
使用
numpy.random.rand()生成权值,这个函数只返回0到1之间
的
值。在将所有权值和输入乘积相
浏览 0
提问于2018-05-21
得票数 0
回答已采纳
1
回答
神经网络同一层中不同
的
激活
函数
machine-learning
、
neural-network
、
deep-learning
、
activation-function
、
mathematics
我
的
问题是,如果我将不同
的
激活
函数安排在一个神经网络
的
同一层中,并对其他隐藏层保持相同
的
趋势,将会发生什么。假设启动时有3个
relu
单元,在此之后有3个tanh,其它
激活
函数I是相同
的
隐层,对于其他隐层,我是在缩放所有具有相同尺度(递减/增加)
的
节点,并且
激活
函数
的
排列和顺序不变。
浏览 0
提问于2020-04-19
得票数 2
回答已采纳
1
回答
使用
ReLU
激活
函数
的
成本与迭代图中
的
峰值
neural-network
使用
ReLU
激活
函数时
的
成本与迭代图有若干峰值。MNIST数据集(包括训练和测试)
的
准确率在95%左右,以
乙状结肠
为
激活
函数,得到平滑
的
向下倾斜曲线,因此我认为实现是正确
的
。对于
ReLU
来说,这是预期
的
峰值吗?你怎么解释这个财产?
浏览 0
提问于2015-12-27
得票数 5
回答已采纳
3
回答
如何用Keras建立多类卷积神经网络
python
、
tensorflow
、
keras
、
conv-neural-network
、
image-segmentation
我正在尝试用带有Tensorflow后端
的
Keras实现一个用于图像分割任务
的
U-Net。我有大小
的
图像(128,96)作为网络
的
输入,以及大小
的
掩码图像(12288,6),因为它们是扁平
的
。我有6个不同
的
类(0-5),它给出了掩膜图像
的
第二部分
的
形状。它们已经
使用
to_categorical()函数被编码为一个热标签。目前,我只
使用
一个输入映像,也
使用
相同
的
一个
浏览 0
提问于2017-08-29
得票数 1
回答已采纳
2
回答
Relu
不工作,sigmoid工作正常
deep-learning
、
mobilenet
当我在输出层
使用
sigmoid时,我对一个现象感到困惑,网络工作得很好。但是,如果我将输出
的
激活
设置为在第一个时期之后,
Relu
.the训练损失不会减少,则网络不会收敛。有人能解释这种现象吗。网络
的
输入是图像。像素被重新缩放为0-1。输出是从0到1
的
一个值。 谢谢。
浏览 2
提问于2020-01-06
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券