腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(929)
视频
沙龙
1
回答
Pythong
梯度
下降
线性
回归
计算
不好
python
、
machine-learning
、
gradient-descent
我在coursera上跟随Andrew NG的课程开始学习ML。我正在尝试实现gradient descent with linear regression,但是我不确定我错过了什么。根据这个 ? 我试着去实现它,但是有些地方出了问题。下面是代码。值得一提的是,这是我第一次接触python,没有学习基础知识。 import numpy as npy = [1,2,3,4,5] def Gradient_Descent(x, y, learning_rate, ite
浏览 6
提问于2020-12-30
得票数 0
回答已采纳
1
回答
Scikit学习中的
线性
回归
和
梯度
下降
?
python
、
machine-learning
、
scikit-learn
、
linear-regression
在机器学习的coursera课程中,它说
梯度
下降
应该收敛。我们如何在现实世界中使用scikit-learn中的
线性
回归
?或者为什么scikit-learn不在
线性
回归
输出中提供
梯度</em
浏览 0
提问于2015-12-26
得票数 26
回答已采纳
1
回答
线性
回归
中
梯度
下降
与正态方程的差异
machine-learning
、
linear-regression
、
gradient-descent
嗨,我是
线性
回归
的新手。我想知道和 机器学习在
线性
回归
中何时使用
梯度
下降
和均方误差?或者什么时候在
线性
回归
中使用哪一种算法?
浏览 0
提问于2018-10-04
得票数 1
1
回答
线性
回归
优化
machine-learning
、
linear-regression
、
optimization
、
gradient-descent
我现在正在学习
线性
回归
。在我发现的大多数实现该方法的例子中,都使用了
梯度
下降
。 有比
梯度
下降
更好的
线性
回归
优化方法吗?
浏览 0
提问于2018-07-08
得票数 1
回答已采纳
1
回答
logistic
回归
中的
梯度
下降
logistic-regression
、
linear-regression
、
gradient-descent
、
cost-function
Logistic和
线性
回归
具有不同的成本函数。但我不明白logistic
回归
中的
梯度
下降
与
线性
回归
是如何一致的。 通过推导平方误差代价函数,得到了
梯度
下降
公式。然而,在Logistic
回归
中,我们使用了一个对数成本函数。我想我在这里迷路了。
浏览 0
提问于2018-01-22
得票数 1
回答已采纳
1
回答
梯度
下降
在
线性
回归
中的作用是什么?
machine-learning
、
linear-regression
、
gradient-descent
有人能给我一个关于
梯度
下降
是如何在
线性
回归
中使用的高层次视图吗?我知道
梯度
下降
基本上可以有效地找到一个局部最小值,但这实际上如何帮助形成对数据的
回归
?我知道如何
计算
点的
梯度
,只是不知道如何更有效地形成直线。
浏览 0
提问于2016-12-23
得票数 1
1
回答
对于特定的
回归
类型,
梯度
下降
总是找到全局最小值吗?
linear-regression
、
loss-function
、
gradient-descent
根据我的理解,
线性
回归
被用来预测一个基于输入的输出,它使用一个
线性
方程来最优地拟合一些输入数据。利用损失函数对输入数据选择最佳拟合
线性
方程。通过模拟y= mx +b中m和b的值,可以找到具有
梯度
下降
的最优
线性
方程组。 我的问题是,
梯度
下降
总是找到
线性
回归
的全局最小损失吗?这个问题的一个扩展是,对前一个问题的答案不取决于所使用的损失函数吗?此外,当我们在m,b的图上使用
梯度
下
浏览 0
提问于2021-10-04
得票数 2
回答已采纳
2
回答
为什么我们在
线性
回归
中使用
梯度
下降
?
machine-learning
、
statistics
、
linear-regression
在我最近参加的一些机器学习课程中,我讨论了
梯度
下降
,以找到最适合
线性
回归
的直线。在一些统计类中,我了解到我们可以使用统计分析,使用均值和标准差来
计算
这一行-- ,为什么这一看似更简单的技术不用于机器学习? 我的问题是,
梯度
下降
是拟合
线性
模型的首选方法吗?如果是,为什么?还是教授只是在一个简单的设置中使用
梯度
下降
来介绍这门技术呢?
浏览 6
提问于2014-11-07
得票数 7
回答已采纳
1
回答
线性
回归
-提取计量学
python
、
scikit-learn
、
iteration
、
linear-regression
Python 3 是否有可能提取拟合
回归
模型所需的迭代次数(通过
梯度
下降
)?
浏览 3
提问于2020-05-31
得票数 1
回答已采纳
1
回答
带
梯度
下降
线性
回归
的迭代方法
machine-learning
、
linear-regression
、
supervised-learning
用多变量描述多项式
回归
是否是一个很好的回答方法?形式化我们有一个有m个样本的数据集D。我可以定义误差函数J(θ),并借助
梯度
下降
算法找到误差函数最小化的参数。 这是否是解决问题的一种迭代方法?
浏览 1
提问于2018-05-14
得票数 1
回答已采纳
3
回答
Python中的渐变体面
python
、
scikit-learn
、
pandas
、
linear-regression
我刚刚完成了我的第一个机器学习算法,即
线性
回归
。我想通过优化模型来减少rmse。我发现
梯度
体面做同样的工作。但我不知道怎么用蟒蛇来做。
浏览 0
提问于2019-10-10
得票数 1
回答已采纳
1
回答
如果成本函数有交互作用,
梯度
下降
是否相同?
machine-learning
、
linear-regression
、
gradient-descent
我们知道如何用
梯度
下降
来确定
回归
参数。如果成本函数为C=|Y-Y(X)|^2,我们将b更新为哪里是学习率和是成本函数C相对于b的偏微分。如果在多元
回归
中存在一种相互作用,并且我们希望坚持
线性
模型公式(不使用树或其他非
线性
回归
器),那么成本函数仍然是一样的,我们是否只是用相同的方式更新b呢?即相互作用项的存在对
梯度
下降
没有影响。我没有看到有或没有相互作用的
梯度
下降
的任何差
浏览 0
提问于2018-02-16
得票数 3
回答已采纳
2
回答
最大似然估计与
梯度
下降
的关系
logistic-regression
、
gradient-descent
MLE (用于寻找logistic
回归
的最佳参数)和
梯度
下降
之间的异同是什么?
浏览 0
提问于2022-01-03
得票数 1
2
回答
线性
回归
中OLS与
梯度
下降
的差异
linear-regression
、
gradient-descent
我理解普通的最小二乘和
梯度
下降
所做的事情,但我只是对它们之间的区别感到困惑。
梯度
下降
是迭代的,而OLS则不是。
梯度
下降
是利用学习速率来达到最小值,而OLS则是用偏微分法求方程的极小值。 这两种方法在
线性
回归
中都非常有用,但它们都给出了相同的结果:截距和系数的最佳可能值。它们之间有什么区别,为什么有两种
线性
回归
方法?
浏览 0
提问于2022-04-14
得票数 2
2
回答
线性
回归
的时间复杂度是多少?
machine-learning
、
regression
、
statistics
、
linear-regression
、
cost-function
我的工作是
线性
回归
,我想知道时间复杂性的大-O表示法。没有优化算法(如
梯度
下降
)的
线性
回归
的代价函数需要在权重组合的迭代中
计算
(作为蛮力方法)。这使得
计算
时间取决于权重的数量,并且明显地取决于训练数据的数量。$O(m^Wn)$ 这是正确的吗?
浏览 0
提问于2018-07-20
得票数 10
1
回答
为什么不用
线性
回归
来细化神经网络的最后一层呢?
neural-network
、
linear-regression
、
transfer-learning
、
finetuning
在转移学习中,通常只对网络的最后一层使用
梯度
下降
进行再训练。然而,普通神经网络的最后一层只执行
线性
变换,那么为什么我们使用
梯度
下降
而不是
线性
(或logistic)
回归
来细化最后一层呢?
浏览 0
提问于2021-04-02
得票数 1
1
回答
梯度
下降
图是如何工作的?
python
、
data-science
、
linear-regression
、
gradient-descent
我有一个问题,了解
梯度
下降
,例如,让我们采取一个简单的
线性
回归
与1的特征,在绘制
回归
线后,误差
计算
的误差是Ypred,然后
计算
成本函数的每个斜率和截距的
回归
线。现在,该代价函数被绘制在斜率和截距处,以求成本函数相对于斜率的最小值,并通过
梯度
截距。 为什么我们要绘制成本函数图,然后找出最低值呢?该模型将
计算
不同坡度和截留权的代价函数,因此不能在此识别函数的最小值,而不是绘制图,然后求出坡度,更新斜率和截距。
浏览 3
提问于2021-03-07
得票数 0
回答已采纳
1
回答
使用python中的面积(一个变量)预测房价的
梯度
下降
线性
回归
python
、
machine-learning
、
linear-regression
、
gradient-descent
我正在尝试训练一个模型,使用
线性
回归
和
梯度
下降
来预测基于平方英尺面积的房价,但我不知道哪里错了,预测的hx (假设)大于数值。没有为预测编码,因为我得到了错误。帮帮我。
浏览 33
提问于2021-10-06
得票数 1
2
回答
神经网络与
线性
回归
梯度
下降
的反向传播
machine-learning
、
neural-network
、
linear-regression
、
backpropagation
、
gradient-descent
我试图理解“反向传播”,因为它是使用
梯度
下降
优化的神经网络。读一读文学作品,似乎做了几件事。 所以,我想弄清楚BackPropagation对损失函数是否做了比
梯度
下降
更多的事情。如果没有,为什么只在神经网络中引用,为什么
浏览 11
提问于2016-06-28
得票数 4
回答已采纳
1
回答
Apache Spark MLlib : Java中的OLS
回归
java
、
scala
、
apache-spark
我一直在看Apache Spark MLlib的文档,似乎找不到使用普通最小二乘(OLS)的
线性
回归
。我只看到进行
线性
回归
的随机
梯度
下降
(SGD)方法的基于数值的算法的示例。我需要闭合形式的OLS
线性
回归
方法,而不是SGD。 我很惊讶在这里找到OLS
回归
是多么困难,因为OLS
回归
是最基本的
线性
回归
方法之一。
浏览 72
提问于2016-03-02
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
线性回归和梯度下降模型
北大才女笔记:这样学习线性回归和梯度下降
解密学习机制:线性回归与梯度下降之旅
线性回归理论(下)——梯度下降法和性能评估
梯度下降算法以及与线性回归模型的结合
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券