腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
代价
函数
上升
的
神经网络
中
的
错误
python
、
numpy
、
deep-learning
、
neural-network
、
activation-function
我一直在研究我
的
第一个
神经网络
,完全从头开始构建它。然而,当打印成本
函数
来跟踪模型进度时,它只会
上升
,我使用
的
数据只有1,0,我想为我
的
第一个模型提供一些简单
的
数据。它有一个由两个tanh节点组成
的
隐藏层,然后输出到一个sigmoid单元。代码如下,从jupyter笔记本
的
markdown版本复制而来: import numpy as np import matplotlib.pyplot as plt #creating our d
浏览 30
提问于2020-12-15
得票数 1
回答已采纳
1
回答
为什么
神经网络
使用损失
函数
的
成本最小化而不是利润
函数
的
利润最大化?
neural-network
、
loss-function
、
gradient-descent
在
神经网络
中
,采用梯度下降法寻找成本
函数
的
最优最小值。为什么这种偏好而不是寻找利润
函数
的
最大值呢? 最小化成本
函数
与最大化利润
函数
的
优缺点是什么?
浏览 0
提问于2021-04-02
得票数 1
4
回答
MATLAB
中
的
神经网络
代价
函数
matlab
、
machine-learning
、
neural-network
我如何在matlab
中
实现这个
神经网络
成本
函数
:以下是这些符号所代表
的
含义:我只是不停地写这样
的
东西,然后意识到这都是
错误
的
。在我
的
一生
中
,我不能想出如何做嵌套和,或者包括输入矩阵,或者做其中
的
任何一个。一切都很复杂。 我将如何在matlab
浏览 15
提问于2014-01-29
得票数 12
回答已采纳
2
回答
在
神经网络
预测(而不是分类)
中
,我应该使用什么成本
函数
?
neural-network
、
octave
、
prediction
、
backpropagation
你能为我提供一些可以在
神经网络
反向传播预测中使用
的
成本
函数
吗?
代价
函数
依赖于我们使用
的
激活
函数
吗?如果我使用sin(x)作为激活
函数
,那么
代价
函数
是什么?
浏览 1
提问于2013-11-29
得票数 1
2
回答
对于tensorflow
中
的
一个分类模型,在培训过程
中
是否有一种强加非对称成本
函数
的
方法?
python
、
tensorflow
我试图在tensorflow
中
构建一个
神经网络
,其中I类
错误
(假阳性)
的
代价
比II类
错误
(假-负)
的
代价
要高。是否有办法在培训过程
中
强制执行(即输入成本矩阵)?这可以通过指定class_weight参数来实现,比如通过指定scikit
中
的
Logistic回归来学习。cw = {0: 3,1:1}在这种情况下,
浏览 0
提问于2019-04-22
得票数 1
回答已采纳
1
回答
顺序分类作为成本
函数
-在Keras或Tensorflow
中
classification
、
keras
、
tensorflow
在Tensorflow
中
,我很难为我
的
卷积
神经网络
实现/使用序数分类
代价
函数
。 您所知道
的
实现/文档/存储库是什么?
浏览 0
提问于2018-05-23
得票数 1
回答已采纳
3
回答
随机梯度下降增加成本
函数
machine-learning
、
neural-network
、
gradient-descent
在
神经网络
中
,梯度下降会查看整个训练集以计算梯度。成本
函数
随着迭代
的
进行而减小。如果
代价
函数
增加,通常是因为
错误
或不适当
的
学习率。 相反,随机梯度下降计算每个单个训练示例
的
梯度。我想知道成本
函数
是否有可能从一个样本增加到另一个样本,即使实现是正确
的
并且参数调整得很好。我有一种感觉,
代价
函数
的
异常增量是可以
的
,因为梯度是在单个样本
浏览 2
提问于2018-05-16
得票数 0
1
回答
深层
神经网络
中
收敛
的
定义是什么?
deep-learning
、
convergence
假设我有一个前馈
神经网络
,它近似于一个值,Y_0说。给出了Y_0
的
解析值。给出了Y_0每一步
的
网络逼近图。我们可以直观地看到,Y_0
的
近似收敛于它
的
解析值。但是,我们怎么能从数学上说近似是收敛
的
呢? 注:序列
的
收敛性有一个定义。如果每个\lbrace x_n \rbrace_{n=1}^{\infty}都有一个自然数K(\varepsilon),使得对于所有的n \geq K(\varepsilon),则称\mathbb{R}
中
的</em
浏览 0
提问于2023-05-03
得票数 1
1
回答
卷积
神经网络
的
代价
函数
python
、
tensorflow
、
word2vec
我用卷积
神经网络
进行文本分类。在示例
中
,它们有60.000个手写数字示例,每个图像大小为28x28,有10个标签(从0到9)。所以重量
的
大小是784 * 10 (28 * 28 = 784)这是他们
的
代码:W = tf.Variable(tf.zeros([784,10]))在我
的
例子
中
,我使用对我
的
浏览 5
提问于2016-08-21
得票数 0
回答已采纳
2
回答
神经网络
代价
函数
的
计算
matlab
、
machine-learning
、
neural-network
、
classification
我现在是Andrew Ng在Coursera上
的
机器学习课程
的
第五周。我正在完成本周在Matlab
中
的
编程作业,我选择使用for循环实现来计算成本J。这是我
的
函数
。* log(h(k))) - ((1 - y_i(k)) * log(1 - h(k)))); endend 我知道一个向量化
的
实现会更容易,但是我不明白为什么这个实现是
错误
的
。当num_l
浏览 22
提问于2021-11-22
得票数 0
1
回答
感知器最优权值
的
意义
machine-learning
、
neural-network
、
deep-learning
我知道我们可以使用权值w作为超平面的系数,它将需要分类
的
向量分开。在我阅读
的
每一个网页上都有详细
的
解释,一般说感知器算法会找到最优
的
权重w,但在哪一种意义上最优?
浏览 0
提问于2017-12-25
得票数 1
1
回答
什么交叉熵或负对数似然足以停止训练?
machine-learning
、
neural-network
我使用
代价
函数
作为交叉熵或负对数似然
函数
来训练
神经网络
。在什么
函数
值下,我可以认为是时候停止训练了,结果是好
的
?
浏览 0
提问于2015-11-19
得票数 0
1
回答
python
中
神经网络
代价
函数
的
修正
keras
、
scikit-learn
、
neural-network
、
autoencoder
、
loss-function
我需要使用包和库为Python
中
的
神经网络
建立自己
的
成本
函数
。例如,我想要建立一个成本
函数
,它是一个隐藏层输出
的
函数
。 Keras和MLP从科学知识-学习不允许这一点。有更好
的
包裹吗?在Keras
中
,只有当它是预测y和实际y
的
函数
时,才能有一个修正
的
成本
函数
。我需要更多
的
灵活性。
浏览 0
提问于2019-08-06
得票数 0
回答已采纳
3
回答
训练
神经网络
的
MSE
代价
函数
neural-network
、
mean-square-error
在关于
神经网络
和深度学习
的
中
,作者从最小化二次
代价
函数
的
角度阐述了
神经网络
的
基本原理。他说,是均方误差
的
同义词。
的
两件事使我对他
的
函数
感到困惑(下面是伪码)。这让我觉得还有其他
的
计算,比如L2-范数,没有明确显示出来。我怀疑情况并非如此,这个词
的
意思是表示简单
的
旧
的
平方误差之和。不过太让人费解了。 任何
浏览 0
提问于2017-05-18
得票数 2
1
回答
使用哪种人工
神经网络
结构?
deep-learning
、
neural-network
、
machine-learning-model
设计一个人工
神经网络
,使下面的
代价
函数
最小化(模型输出之间成对差
的
平方和),满足给定
的
约束条件,其中w是ANN模型参数向量。问:什么样的人工
神经网络
适合这个用途?
浏览 0
提问于2021-05-01
得票数 0
回答已采纳
1
回答
分类损失
函数
:如何为每个观测和类别实现单独
的
权重
classification
、
loss-function
我要解决
的
问题是分类问题。对于不同
的
观察,
错误
分类
的
代价
是非常不同
的
(但已知
的
),所以我计划通过相应地为每个观测分配权重来将它们包括在内。我
的
问题是,另外,不同类别的
错误
分类
的
代价
是不同
的
(这些差异取决于观察结果)。因此,理论上,我需要将每个观察到
的
w_{ij}和类j
的
权重纳入损失
函数
权重。但是,我不知道如何做到这一点,例如,对
浏览 0
提问于2018-12-21
得票数 0
回答已采纳
1
回答
反向传播
的
不同损失
函数
neural-network
、
backpropagation
我遇到了一些用于反向传播
的
不同误差计算
函数
:来自
的
平方误差
函数
或,用于BP损失
函数
的
推导最后,如何
浏览 6
提问于2016-04-01
得票数 3
回答已采纳
1
回答
神经网络
训练
中
梯度和偏导数
的
解释
machine-learning
、
neural-network
、
loss-function
、
gradient-descent
、
backpropagation
我试图通过了解如何解释梯度及其偏导数来理解
神经网络
训练
中
偏微分
的
目的。下面是我解释它们
的
方法,所以我想知道我是否正确,如果不是,是否有人能指出我
的
正确方向。如果我们处理
的
函数
依赖于几个变量,那么这个
函数
对所有这些因变量
的
导数就是一个梯度(即偏导数
的
向量),它指向
函数
极值
的
方向。每个偏导数对应于我们试图优化
的
N维空间中
的
一个特定维数(例如二次<em
浏览 0
提问于2020-01-17
得票数 3
回答已采纳
1
回答
如何在前馈
神经网络
中
鼓励冒险?
machine-learning
、
neural-network
、
backpropagation
、
loss-function
、
feed-forward
我第一次真正深入研究
神经网络
,并试图在没有任何外部数据库
的
情况下构建经典
的
“号码识别网络”。在一些初始测试之后,我遇到了我
的
网络将所有权重保持在令人难以置信
的
低水平,以便输出几乎为零
的
问题。我明白为什么会发生这种情况(每次程序得到10个输出
中
的
9个都是正确
的
!)但很明显,这是我需要阻止
的
事情。 有谁有关于如何解决这个问题
的
建议吗?我正在为前馈
神经网络
使用sigmoid激活
函
浏览 3
提问于2020-03-23
得票数 1
1
回答
图像
神经网络
中
的
模式识别
artificial-intelligence
、
neural-network
、
pattern-recognition
更准确地说,在这些图像
中
可以找到4种主要
的
模式。他们彼此有很大
的
不同。但每种模式本身都有相当大
的
差异。我可以毫不费力地区分它们,但我需要找到一种自动化
的
方法。所有图像均为255x255
的
黑白图像。一个非常容易辨别的模式基本上是图像左上角
的
一组像4个吓人
的
像素?我在用Neuroph。
浏览 3
提问于2014-12-23
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习代价函数中的正则化
力学:对偶神经网络中激活函数对的改进
每天十分钟机器学习之二十四:神经网络的代价函数
人工神经网络中为什么会有激活函数,主要的激活函数有哪些?
详解神经网络中的神经元和激活函数
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券