腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5910)
视频
沙龙
1
回答
线性
回归
中
梯度
下降
与正态方程
的
差异
、
、
嗨,我是
线性
回归
的
新手。我想知道和 机器学习在
线性
回归
中何时使用
梯度
下降
和均方
误差
?或者什么时候在
线性
回归
中使用哪一种算法?
浏览 0
提问于2018-10-04
得票数 1
2
回答
线性
回归
中一般使用RMSE而不是MSE
的
原因
、
、
、
在
线性
回归
中,为什么我们通常使用RMSE而不是MSE?我所知道
的
基本原理是,通过
梯度
下降
来最小化RMSE中
的
错误而不是MSE中
的
错误是容易
的
,但是我需要知道确切
的
原因。
浏览 0
提问于2020-01-19
得票数 3
回答已采纳
1
回答
用于
线性
回归
的
神经网络
、
、
、
、
我找到了一个非常棒
的
源代码,它完全符合我所需要
的
模型:你有一个x->y图,每个x值都是“特征”
的
总和,或者我将如何表示它们,z。因此x->y图
的
回归
线应该是函数,其中h(x)是
回归
线( h(SUM(z(subscript-i)) ) 在这种神经网络中,其思想是以最小化最小平方
误差
的
方式为每个z-value分配一个权重。
梯度
函数用于更新权重以最小化
误差</e
浏览 1
提问于2016-02-03
得票数 0
1
回答
用
梯度
下降
预测
线性
回归
结果
的
误差
、
、
、
、
learning_rate=0.01) predictions = model.predict(X_test) 我正在尝试使用
梯度
下降
来
预测
我
的
波士顿房价数据集,但不幸
的
是,我
的
代码显示下面的错误,我不知道这是排版错误还是代码逻辑,请帮助我。另外,对于self.b和self.w定义
的
部分,我并不是真的理解这些代码,有人能为我使用一个更简单
的
公式吗 IndexErr
浏览 24
提问于2021-08-13
得票数 0
1
回答
logistic
回归
中
的
梯度
下降
、
、
、
Logistic和
线性
回归
具有不同
的
成本函数。但我不明白logistic
回归
中
的
梯度
下降
与
线性
回归
是如何一致
的
。 通过推导平方
误差
代价函数,得到了
梯度
下降
公式。然而,在Logistic
回归
中,我们使用了一个对数成本函数。我想我在这里迷路了。
浏览 0
提问于2018-01-22
得票数 1
回答已采纳
1
回答
多元
线性
回归
的
梯度
下降
、
我知道
的
:( ii)现在,∑{ hThetax(i) - y(i) }:指具有给定
的
Theta值
的
总错误。
误差
是指
预测
值{ hThetax(i) }与实际值之间
的
差异。y(i)结尾
的
Xj^(i)代表什么?我们在实现多元
线性
回归
梯度</em
浏览 4
提问于2017-02-02
得票数 2
回答已采纳
1
回答
对于特定
的
回归
类型,
梯度
下降
总是找到全局最小值吗?
、
、
根据我
的
理解,
线性
回归
被用来
预测
一个基于输入
的
输出,它使用一个
线性
方程来最优地拟合一些输入数据。利用损失函数对输入数据选择最佳拟合
线性
方程。通过模拟y= mx +b中m和b
的
值,可以找到具有
梯度
下降
的
最优
线性
方程组。 我
的
问题是,
梯度
下降
总是找到
线性
回归
的
全局最小损失吗?这个
浏览 0
提问于2021-10-04
得票数 2
回答已采纳
1
回答
在Numpy Python中从头开始
的
正交
线性
回归
的
梯度
下降
推导
、
、
、
、
我想使用正交
线性
回归
的
误差
函数从头开始推导
梯度
下降
。这样我就可以
用
NumPy编写python代码了。但是,我不确定其中
的
错误函数。有人能帮我推导出这个吗!!
浏览 1
提问于2020-02-28
得票数 0
1
回答
有没有办法
用
python找到标量值相对于向量
的
导数?
、
、
、
我
的
损失函数产生值112.314。我试图找出这个损失函数相对于一些权值
的
导数,这是一个向量。向量为3.7、3.7、3.9、4.3、2.5、3.3、4.7。到目前为止,我尝试
的
是np.gradient(112.314, [3.7, 3.7, 3.9, 4.3, 2.5, 3.3, 4.7])。
浏览 0
提问于2019-10-05
得票数 0
回答已采纳
1
回答
成本函数与
误差
最小化
在
线性
回归
模型中,如何定义成本函数。另外,在定义了成本函数之后,如何最小化错误项?
浏览 0
提问于2020-01-21
得票数 0
2
回答
在实践中,神经网络
的
成本函数是什么?
、
、
我想问一个相当简单
的
问题。我有很深
的
纯数学背景,所以我对成本函数
的
数学没有太大
的
理解困难,但我只想澄清在实际
的
神经网络中成本函数到底是什么(即在实际数据集上实现它)。给定一个固定
的
训练样本,我们可以将成本函数看作权值和偏差
的
函数,从而优化该函数就是求出该函数
的
最小值。 在实践中,当你有数千个培训样本时,成本函数是什么?是否所有训练例子
的
成本函数之和?
浏览 0
提问于2022-03-02
得票数 0
2
回答
神经网络中
的
权值
、
、
所以我是深入学习
的
新手,我遇到了给出输出
的
激活函数,并将其与标签进行比较,如果它是错误
的
,它调整其权重,直到它给出
的
输出与训练数据集中
的
特定输入
的
标记数据相同。10 1因此,假设这是一个示例训练集,我们将这些输入发送到激活函数,对于第一个输入,它返回正确
的
输出所以现在我怀疑,如果新更新
的
权重为第三个输入返回错误
的
输出,那么它
的<
浏览 0
提问于2018-04-07
得票数 1
回答已采纳
2
回答
线性
回归
中OLS与
梯度
下降
的
差异
、
我理解普通
的
最小二乘和
梯度
下降
所做
的
事情,但我只是对它们之间
的
区别感到困惑。
梯度
下降
是迭代
的
,而OLS则不是。
梯度
下降
是利用学习速率来达到最小值,而OLS则是
用
偏微分法求方程
的
极小值。 这两种方法在
线性
回归
中都非常有用,但它们都给出了相同
的
结果
:截距和系数
的<
浏览 0
提问于2022-04-14
得票数 2
1
回答
Scikit学习中
的
线性
回归
和
梯度
下降
?
、
、
、
在机器学习
的
coursera课程中,它说
梯度
下降
应该收敛。我们如何在现实世界中使用scikit-learn中
的
线性
回归
?或者为什么scikit
浏览 0
提问于2015-12-26
得票数 26
回答已采纳
1
回答
带
梯度
下降
线性
回归
的
迭代方法
、
、
我有一个为不同学校评分
的
模式: 我被要求描述一种迭代方法来解决这个问题。这是否是解决问题
的
一种迭代方法?
浏览 1
提问于2018-05-14
得票数 1
回答已采纳
1
回答
OLS
回归
能从完整
的
数据序列中
预测
吗?
、
、
在线阅读和遵循这个例子来自于,我知道OLS可以用来找出序列中间隙之间
的
数据(内插?)但我已经有了一个完整
的
序列,并希望
预测
它
的
未来(我认为是外推)。OLS能用来做这个吗?
浏览 0
提问于2020-03-21
得票数 1
回答已采纳
1
回答
用
神经网络
预测
多元
线性
回归
系数有何想法?
、
、
、
、
0.19172223428950 -0.29330584684934 -0.35078062276141 0.03826908777226 0.06633047875487];t = a + b*X1 + c*X2 由于方程是具有两个
回归
元
的
多元
线性
回归
方程
的</em
浏览 1
提问于2015-06-05
得票数 1
回答已采纳
1
回答
从
梯度
下降
更新规则获取直觉
、
、
梯度
下降
更新规则:将这些值用于此规则:在使用0.07
的
学习速率进行两次迭代后,输出
的
值θ为-5150.8031.9763e+04因此,在第二次迭代之后,θ似乎变大了,这意味着学习速度太大了。我刚刚开始尝试理解
梯度
下降
,所以请指出我
的
逻辑中
的
任何错误。alp
浏览 3
提问于2015-07-18
得票数 3
回答已采纳
6
回答
是否可以为逻辑
回归
定义自己
的
成本函数?
、
、
在最小二乘模型中,成本函数被定义为
预测
值与实际值之差
的
平方,作为输入
的
函数。当我们进行逻辑
回归
时,我们将成本函数更改为对数函数,而不是将其定义为sigmoid函数(输出值)与实际输出之间
的
差值
的
平方。 是否可以更改和定义我们自己
的
成本函数来确定参数?
浏览 2
提问于2012-08-28
得票数 22
回答已采纳
1
回答
梯度
下降
图是如何工作
的
?
、
、
、
我有一个问题,了解
梯度
下降
,例如,让我们采取一个简单
的
线性
回归
与1
的
特征,在绘制
回归
线后,
误差
计算
的
误差
是Ypred,然后计算成本函数
的
每个斜率和截距
的
回归
线。现在,该代价函数被绘制在斜率和截距处,以求成本函数相对于斜率
的
最小值,并通过
梯度
截距。 为什么我们要绘制成本函数图,然后找出最低值呢?该模型将计算不同坡度和截留权
浏览 3
提问于2021-03-07
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
线性回归和梯度下降模型
用最小二乘和梯度下降看线性回归
梯度下降算法以及与线性回归模型的结合
机器学习系列 4:线性回归的梯度下降算法
北大才女笔记:这样学习线性回归和梯度下降
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券