腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(84)
视频
沙龙
1
回答
与
权重
梯度
相比
,
线性
回
归中
的
偏差
梯度
仍然
很小
,
并且
没有
正确地
学习
截取
python-3.x
、
deep-learning
、
neural-network
、
pytorch
我拼凑了一个虚拟模型来展示pytorch中
的
线性
回归,但我发现我
的
模型
没有
正确
学习
。当涉及到
学习
斜率时,它做得很好,但拦截并不是真正
的
移动。打印出每个时期
的
毕业生告诉我,实际上,由于
偏差
,毕业生要小得多。为什么会这样呢?我如何才能纠正它,以便
正确地
学习
截取
? 这就是发生
的
事情(为了说明,设置为0): ?
浏览 10
提问于2021-11-10
得票数 0
回答已采纳
2
回答
线性
回
归中
一般使用RMSE而不是MSE
的
原因
machine-learning
、
linear-regression
、
mse
、
rmse
在
线性
回
归中
,为什么我们通常使用RMSE而不是MSE?我所知道
的
基本原理是,通过
梯度
下降来最小化RMSE中
的
错误而不是MSE中
的
错误是容易
的
,但是我需要知道确切
的
原因。
浏览 0
提问于2020-01-19
得票数 3
回答已采纳
2
回答
有随机权值
的
神经网络每次都会给出相同
的
预测率吗?
matlab
、
neural-network
对于一个输入,有随机权值,我
的
预测效率会改变吗?另外,我还
没有
考虑到网络中
的
偏差
,这是否是效率较低
的
原因( 200例训练数据
的
预测率为93%,100例测试数据
的
预测率为90% )。我以
学习
率为0.005,错误阈值为0.005。我使用了反向传播算法)
浏览 3
提问于2016-06-24
得票数 1
回答已采纳
6
回答
梯度
下降和
梯度
上升
的
区别是什么?
optimization
、
machine-learning
、
mathematical-optimization
我找不到任何关于
梯度
上升
的
东西。任何关于
梯度
上升
的
好链接,展示它与
梯度
下降
的
不同之处都会有所帮助。
浏览 1
提问于2014-03-24
得票数 23
2
回答
如何在Python,Keras中将神经网络
的
输出限制为正
python
、
python-3.x
、
neural-network
、
keras
我可以在最后改变它,但我希望它在
学习
时考虑到这个事实。
浏览 0
提问于2018-04-23
得票数 2
回答已采纳
2
回答
线性
激活和ReLU激活在使用kernel_constraint NonNeg时是否具有相同
的
行为?
tensorflow
、
keras
、
tf.keras
最近,我在Keras中使用内核约束来限制训练过程中
的
梯度
。对于我
的
用例(回归),我发现约束非常有用。 据我理解,非the类将
梯度
限制为仅为正(可能使用绝对
梯度
)。因此,我想知道在添加非vs.约束时,使用
线性
激活layers.Dense(1, activation = "linear", kernel_constraint = "non_neg")激活层
与
使用ReLU
浏览 11
提问于2022-02-22
得票数 1
回答已采纳
1
回答
如果我们主要使用RNN上
的
LSTM来解决
梯度
消失问题,为什么我们不能只使用RNN
的
ReLU/leaky ReLU呢?
deep-learning
、
neural-network
、
lstm
、
recurrent-neural-network
、
relu
我们都知道,当我们使用sigmoid
的
深度神经网络时,会出现消失
梯度
问题,如果我们使用relu,它可以解决这个问题,但它会产生死神经元问题,然后通过泄漏relu来解决。如果RNN中存在
梯度
消失问题,我们为什么要转向LSTM?为什么我们不能使用relu来解决它。
浏览 4
提问于2021-01-18
得票数 0
1
回答
提高不平衡大数据集
的
查准率和查全率
machine-learning
、
classification
、
random-forest
、
logistic-regression
、
class-imbalance
HistGradientBoostingClassifier目前
没有
平衡
权重
选项。 我尝试了一个简单
的
逻辑回归平衡
的
班级
权重
。我尝试了各种正则化参数,但精度在15%左右,召回率在62%左右。我在基于直方图
的
梯度
增强分类器
的
基础上尝试了不平衡
学习
的
平衡袋式分级机,
并且
能够在
没有
任何超参数调整
的
情况下获得20%
的
精度和72%
的
召回率
浏览 0
提问于2022-01-06
得票数 0
3
回答
模糊
线性
梯度
在铬中停止
css
、
google-chrome
、
linear-gradients
、
gradientstop
如果我使用
的
是具有多个停止
的
线性
梯度
,如下所示:{ width: 100px; displaybottom, #383937 0, #001500 35px,} 火狐
没有
问题Chrome渐变颜色之间
的
过渡是模糊
的
。我正在重用一个位置来定义
浏览 2
提问于2014-10-30
得票数 13
回答已采纳
3
回答
滑雪板
的
Logistic回归函数
python
、
numpy
、
machine-learning
、
scipy
、
scikit-learn
我从sklearn那里学到了Logistic回归,并遇到了这样
的
情况:理论上我知道所有这些,但是我不确定scikit.learn在何时何地以及如何计算,或者它是否需要在某个时候实现。我有一个83%
的
准确率,这是我
的
目标,但我非常困惑,这是如何
浏览 6
提问于2014-07-24
得票数 5
回答已采纳
1
回答
澄清我对在线策略RL (在线SARSA)
的
理解
reinforcement-learning
、
online-learning
我想澄清一下,我已经理解了SARSA是如何在细微差别中工作
的
。考虑使用CONNECTIONIST系统从在线Q
学习
中提取
的
原始定义。作者声明: G. A. Rummery & M.NiranjanCUED/F-INFENG/TR 1661994年9月(根据维基百科
的
一篇文章,这是SARSA wss提到
的
第一份出版物)。作者提出了一种更新规则,“.在使用
与
所选动作相关
的
Qt+1时,
与
正常
的
Q-
学习</e
浏览 0
提问于2018-02-02
得票数 1
回答已采纳
8
回答
线性
与
非
线性
神经网络?
neural-network
、
tensorflow
我对机器
学习
和神经网络很陌生。我知道如何建立一个非
线性
分类模型,但我目前
的
问题有一个连续
的
输出。我一直在寻找关于神经网络回归
的
信息,但我所遇到
的
只是关于
线性
回归
的
信息--
没有
关于非
线性
情况
的
信息。这很奇怪,因为为什么会有人用神经网络来解决简单
的
线性
回归呢?这不就像用核弹杀死苍蝇吗? 所以我
的
问题是:是什么使神经网络非
线性
?(隐藏
浏览 12
提问于2016-12-20
得票数 37
回答已采纳
1
回答
训练神经网络时出现极小或NaN值
algorithm
、
haskell
、
neural-network
、
backpropagation
我正在使用
线性
代数
的
hmatrix包。我
的
训练框架是使用pipes包构建
的
。 我
的
代码会编译,不会崩溃。但问题是,层大小(比方说1000)、小批量大小和
学习
率
的
某些组合会在计算中产生NaN值。经过一些检查后,我看到非常小
的
值(1e-100
的
顺序)最终出现在激活中。但是,即使
没有
发生这种情况,训练
仍然
不起作用。它
的
损失或准确性
没有
任何改进。也就是说,ds是增量矩阵<
浏览 4
提问于2017-06-22
得票数 329
2
回答
用
梯度
下降代替微积分
的
问题。我核对了以前
的
问题,还有一些问题需要澄清
gradient-descent
、
cost-function
why-do-we-use-gradient-descent-in-linear-regression,https://stats.stackexchange.com/questions/212619/why-is-gradient-descent-required,但是找不到我
的
答案
梯度
下降是:w_{i}:=w_{i}-\alpha \frac{\delta }{\delta w_{i}}j(w),其中w是向量。毕晓普在他
的
“模式识别和机器
学习
”一书中说: 由于误差函数是
浏览 0
提问于2019-08-13
得票数 4
回答已采纳
3
回答
tf.keras中
线性
回归模型调优
的
几个问题
regression
、
python
、
tensorflow
、
keras
、
matplotlib
我正在开发,它使用一个玩具数据集探索
线性
回归。建立并训练了一个
线性
回归模型,它与
学习
速度、时间和批次大小有关。我很难理解迭代是如何完成
的
,它是如何连接到“时代”和“批处理大小”
的
。我基本上不知道实际
的
模型是如何训练
的
,数据是如何处理
的
,迭代是如何完成
的
。为了理解这一点,我想通过手工计算每一步来遵循这一点。因此,我希望每一步都有斜率和截距系数。这样我就可以看到“计算机”使用什么样
的
数据,把什么样
的
数据
浏览 7
提问于2020-06-19
得票数 7
2
回答
当使用多个隐藏层时,神经网络
的
准确性非常差
python
、
numpy
、
neural-network
、
backpropagation
训练集上
的
精度也在这个范围内。我
的
实现中有
没有
可能导致这种情况
的
问题?
浏览 1
提问于2021-05-13
得票数 5
6
回答
模型超参数和模型参数有什么区别?
machine-learning
、
parameter
、
hyperparameter
、
language-model
我注意到,像模型超参数和模型参数这样
的
术语已经在网上交替使用了,而
没有
事先澄清。我认为这是不正确
的
,需要解释。考虑一个机器
学习
模型,一个基于SVM/NN/NB
的
分类器或图像识别器,仅仅是首先想到
的
任何东西。 请举你
的
例子。
浏览 0
提问于2016-09-24
得票数 49
回答已采纳
5
回答
线性
回
归中
的
梯度
下降
java
、
machine-learning
、
linear-regression
、
gradient-descent
我正在尝试用java实现
线性
回归。我
的
假设是theta0 + theta1 * xi。我正在尝试计算theta0和theta1
的
值,以便使成本函数最小。我正在使用
梯度
下降来找出值-while(repeat until convergence) calculate theta0 and theta1 simultaneously.在收敛之前我是机器
学习
的
新手,刚刚开始编写基本
的
算法以获得更好
的
理解。任何帮助都将不胜感激。
浏览 7
提问于2014-01-11
得票数 2
1
回答
解释张板图解
python
、
tensorflow
、
tensorboard
、
tensorflow-slim
我还是tensorflow
的
新手,当我
的
模特们继续训练
的
时候,我试着了解细节上发生了什么。简单地说,我正在使用在slim上预先训练过
的
ImageNet模型在我
的
数据集上做finetuning。我对这些情节
的
解释是,重量不会在小批次上改变。只有偏见改变了迷你批次,这可能是问题所在。但我不知道该到哪里去证实这一点。这是我唯一能想到
的
解释,但考虑到我还是新手,这可能是错误
的
。你能和我分享一下你
的
想法吗?不要犹豫,要求更多
的
浏览 3
提问于2017-12-28
得票数 14
3
回答
什么是体重衰减?
machine-learning
、
tensorflow
、
deep-learning
、
linear-algebra
我最近开始
学习
ML和TensorFlow。在浏览网站上
的
时,我看到了一段让我有点困惑
的
段落: 训练网络进行N维分类
的
常用方法是多项式logistic回归。softmax回归Softmax回归将一个softmax非
线性
应用于网络
的
输出,并计算归一化预测和标签
的
1-热编码之间
的
交叉熵。对于正则化,我们还将通常
的
质量衰减损失应用于所有
学习
变量。模型
的
目标函数是交叉熵损失和所有这些重量衰减项之和,由损失(
浏览 14
提问于2017-08-07
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对比PyTorch和TensorFlow的自动差异和动态子类化模型
对比PyTorch和TensorFlow的自动差异和动态模型
深度学习不再是炼丹术!谷歌给出首个神经网络训练理论证明
想入门深度学习?先搞懂这25个基础概念!
你应该知道的25个深度学习概念
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券