腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
在SPSS中,线性
回归
是否与普通
最小
二
乘法相同?
statistics
、
linear-regression
、
spss
、
least-squares
我想使用线性
回归
模型,但我想使用普通
最小
二
乘法,我认为这是一种线性
回归
。我使用的软件是SPSS。它只有线性
回归
、偏
最小
二
乘
和两阶段
最小
二
乘
。我不知道哪一个是普通
最小
二
乘
(OLS)。
浏览 4
提问于2009-11-22
得票数 9
回答已采纳
3
回答
SPSS与普通
最小
二
乘
spss
我正在进行
回归
,并且我正在使用。但它似乎不支持普通的
最小
二
乘
,它只有偏
最小
二
乘
和两阶段
最小
二
乘
。有什么建议吗?
浏览 5
提问于2009-11-22
得票数 0
1
回答
dolphindb是否支持加权
最小
二
乘
回归
“wls”?
dolphindb
我有一个关于加权
最小
二
乘
的要求。dolphindb是否支持加权
最小
二
乘
回归
“wls”?怎么用?
浏览 21
提问于2021-09-17
得票数 1
1
回答
GradientBoostingRegressor中的损失函数
machine-learning
、
scikit-learn
、
loss-function
、
terminology
、
gbm
这里说,我们可以使用'ls‘作为一个损失函数,这是
最小
二
乘
回归
。但是我很困惑,因为
最小
二
乘
回归
是一种
最小
化SSE损失函数的方法。 所以他们不应该在这里提到SSE吗?
浏览 0
提问于2020-10-22
得票数 1
回答已采纳
1
回答
决定系数与
最小
二
乘
误差之差?
regression
、
model-selection
我应该在何时何地将R^2视为
回归
的合适度的衡量标准? 你能给我举个直观的例子吗?
浏览 0
提问于2016-03-08
得票数 2
1
回答
最小
二
乘
(LS)与普通
最小
二
乘
(OLS)的差异
statistics
、
regression
、
linear-regression
、
mathematical-optimization
线性
回归
中
最小
二
乘
(LS)与普通
最小
二
乘
(OLS)的差异。我发现:-在搜索的时候,我得到了一个区别,在普通的
最小
二
乘
中,我们只考虑预测值和给定的依赖变量之间的垂直距离,而在
最小
二
乘
中,我们考虑垂直和水平距离。
浏览 1
提问于2021-05-25
得票数 1
回答已采纳
2
回答
R中的运行百分比
最小
二
乘
回归
r
、
regression
我感兴趣的是运行百分比
最小
二
乘
回归
,而不是在R中的普通
最小
二
乘
回归
,这也可以被称为具有
乘
性误差的线性模型。在此之前,有一个问题是关于这个站点上的百分比
最小
二
乘
的,响应者建议考虑加权
回归
,其中一种可能是用其X值的倒数平方来加权每个观察值。 其中错误项建模为:b2是<em
浏览 3
提问于2013-09-13
得票数 1
回答已采纳
1
回答
MLJ:选择行和列进行评估培训
machine-learning
、
julia
、
regression
我想实现一个内核岭
回归
,也在MLJ中工作。此外,我希望可以选择使用特性向量或预定义的内核矩阵,如Python中的。函数在K的不同子集上对机器进行求值,由于代表性定理,核岭
回归
的若干非零系数等于样本数。因此,可以使用缩小大小的矩阵Ktrain_rows、train_rows来代替Ktrain_rows:。
浏览 0
提问于2020-12-17
得票数 4
回答已采纳
1
回答
最小
二
乘
回归
模型
r
、
regression
、
least-squares
我猜他们使用了
最小
二
乘
回归
模型,但我不确定。 最后,如果他们真的使用
最小
二
乘
回归
模型,那么它们与lm +预测之间的区别是什么?
浏览 4
提问于2015-03-13
得票数 0
1
回答
sklearn的转换()和预测()方法有什么区别?
machine-learning
、
python
、
scikit-learn
到目前为止,我所理解的是transform()给出的值在质量上类似于X(您的特性),而predict()给出的值在质量上类似于y(您的标签)。但我想要澄清的是,为什么只有几个类同时拥有这些方法,例如KMeans、PLSRegression等等。 为什么要么将这两个方法放在每个类中,要么不让这两个方法发生在同一个类中?例如,如果KMeans需要一个返回欧氏点的方法,为什么不让它有一个单独的方法呢?为实现此功能而实现transform(),我认为消除了这两种方法之间的明显区别。类似地,在PLSRegression中,我无法理解这两种方法之间的区别。
浏览 0
提问于2020-06-09
得票数 2
回答已采纳
1
回答
Scala中的多维
回归
machine-learning
、
neural-network
、
scala
有没有人知道一个ml库既可以支持多维
回归
(如果我的术语错误请纠正我)并与Scala集成? 接下来,我还想尝试一个RNN,因为我们的数据中有一个时间序列元素,但是我相信在ml库中这是更加罕见的。
浏览 0
提问于2018-01-27
得票数 1
3
回答
为什么我们不在线性
回归
中使用曼哈顿距离而不是欧几里德距离呢?
machine-learning
、
linear-regression
、
distance
当我向我的同龄人解释线性
回归
的概念时,我被困在回答这个问题上。为什么在线性
回归
中我们不使用曼哈顿距离而不是欧几里德距离呢?有人能给出这背后的直觉吗?
浏览 0
提问于2018-12-25
得票数 1
7
回答
C/C++中的
最小
二
乘
回归
c++
、
c
、
math
如何在C/C++中实现因子分析的
最小
二
乘
回归
?
浏览 18
提问于2010-02-04
得票数 2
1
回答
线性
回归
模型中未知参数估计的最佳方法
machine-learning
、
regression
、
partial-least-squares
100个测试样本,120个特性数据集4:1000个训练和1000个测试样本,5000功能逐步
回归
偏
最小
二
乘
回归
请帮帮忙
浏览 0
提问于2015-06-01
得票数 6
1
回答
对python中数字数组的每个条目进行线性
回归
。
python
假设我有numpy数组: [2,4,6,8,1],是否有一种方法可以有效地对矩阵的所有列进行
最小
二
乘
回归
?我能把这个矩阵传递给numpy.linalg.lstsq并计算每个列的所有5个
最小
二
乘
回归
吗?
浏览 9
提问于2022-04-15
得票数 0
1
回答
目前哪些模型支持潮汐模型中的多元
回归
?
r
、
tidymodels
、
r-recipes
、
r-parsnip
我检查了多元
回归
的tidymodel,并在这里看到了下面的示例:是否有页面说明当前支持多元
回归
的模型?
浏览 16
提问于2022-08-21
得票数 0
回答已采纳
1
回答
带有范畴标签的Python
statsmodels
、
categorical-data
我想要一次OLS
回归
# where 0 = sedan, 1 = minivan , etc y = [0,0,1,0,2
浏览 3
提问于2020-02-25
得票数 0
回答已采纳
2
回答
如何计算链接的趋势性质?
algorithm
、
statistics
、
physics
上图显示了一篇文章在一段时间内的页面浏览量。我正在寻找一个像样的,而不是复杂的物理或统计计算,能够给我(基于页面浏览量的历史)过去n天的页面浏览量的当前趋势(由蓝色框表示)。理想情况下,可接受的答案将提供适用于此问题的算法类,以及使用上面图表中提供的数据的一些示例。
浏览 2
提问于2011-06-05
得票数 3
1
回答
状态模型.稳健线性
回归
中的权重
python
、
regression
、
linear-regression
、
statsmodels
我正在研究状态模型中的稳健线性
回归
,但我找不到一种方法来指定这种
回归
的“权重”。例如,在
最小
二
乘
回归
中,为每个观测分配权重。类似于WLS在状态模型中所做的工作。 还是有办法绕过它?
浏览 7
提问于2017-08-06
得票数 0
回答已采纳
1
回答
使用rlm计算稳健
回归
的r平方是否合适?
r
、
statistics
、
regression
、
robust
我正在使用MASS中的rlm函数来执行稳健的
回归
。与lm不同,summary函数不返回r平方的值。 因此,使用1 - sum(residual^2)/(sum((Y-mean(Y))^2)?
浏览 0
提问于2020-02-05
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习——最小二乘回归
加权最小二乘回归是什么鬼?
用最小二乘和梯度下降看线性回归
最小二乘代码
最小二乘实验
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券