腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
二元
变量
对
线性
回归
影响
的
作图
r
、
plot
、
panel-data
我是一个新
的
R用户,想问我一个问题。我想用图表来说明大麻合法化
对
各种犯罪率
的
影响
(美国每50个州都有0和1
的
虚拟值)。main = "Property Crime Rate & Legalization", theme.bw = TRUE) 虽然我得到了一个图,但我不能得到一个处理
变量
,在这个例子中,我
的
模型中
的
cmpdecr使线在我
的
图中的确切时间点从黑色变为蓝色。
浏览 23
提问于2021-04-30
得票数 0
1
回答
二值结果
变量
的
OLS
回归
方法
regression
、
data-science
、
linear-regression
、
logistic-regression
、
economics
我之前曾被告知--出于完全合理
的
理由--当结果
变量
是二进制(即是/否、真/假、赢/输等)时,不应该运行OLS
回归
。然而,我经常阅读经济学/其他社会科学方面的论文,在这些论文中,研究人员
对
二元
变量
进行OLS
回归
,并
对
系数进行解释,就像对连续结果
变量
的
解释一样。有关这方面的几个问题: 为什么不进行逻辑
回归
?是否存在使用logit模型
的
缺点
浏览 11
提问于2020-08-21
得票数 3
1
回答
二元
回归
图
的
解释
r
我
对
R不熟悉,我创建了一个
线性
二元
回归
的
av图。我想知道如何解释角落里
的
回归
残差是这样
的
?谢谢!注:我
的
二元
格式是性别:男性(0),女性(1),就业:就业(1),失业(0)
浏览 4
提问于2022-05-02
得票数 0
回答已采纳
1
回答
严格有界结果
变量
的
β
回归
与
线性
回归
[0,1]
statistics
、
regression
、
linear-regression
、
logistic-regression
因此,我试图用一些预测因子来解释我
的
严格有界
变量
(百分比)--分类和数值。我已经读了很多关于这个话题
的
文章,但我仍然
对
其中
的
一些论点感到困惑。我
回归
的
目的是解释,而不是预测。
对
严格有界
的
结果
变量
运行
线性
回归
会带来什么后果?
浏览 0
提问于2019-05-26
得票数 0
1
回答
R中
的
auto.arima函数是在估计
线性
回归
模型之前还是之后
对
y和x
变量
进行微分?
r
、
time-series
、
linear-regression
、
forecasting
、
arima
我试图估计一个带有arima误差
的
线性
回归
,但我
的
回归
变量
是高度共
线性
的
,因此
回归
模型受到多重共
线性
的
影响
。由于我
的
最终目标是能够将单个
回归
系数解释为弹性,并将它们用于事前预测,因此我需要以某种方式解决多重共
线性
,以便能够信任
回归
变量
的
系数。我知道转换
回归
<
浏览 38
提问于2019-06-17
得票数 1
1
回答
logistic
回归
中
的
分类
变量
r
、
logistic-regression
、
categorical-data
如何在R中实现
二元
逻辑
回归
中
的
分类
变量
?我想测试专业领域(学生,工人,教师,个体户)
对
购买产品
的
概率
的
影响
。set.seed(123) y<-round(x
浏览 1
提问于2018-01-06
得票数 4
回答已采纳
1
回答
即使在反向变换之后,原始数据和对数变换后
的
数据
的
线性
回归
也有不同
的
系数,这是为什么?
logging
、
scale
、
transformation
、
coefficients
、
interpretation
我正在处理一个相对较大
的
数据集(n = 450)。因为结果
变量
的
分布是右偏
的
,所以我尝试对数据进行对数转换以使其更正态,它可以使结果分布正常化。我
的
结果
变量
是连续
的
。我
的
预测
变量
是分类/二进制
的
。我首先对连续结果
变量
的
二元
预测
变量
进行了简单
的
线性
回归
(使用lm()函数),预测
浏览 7
提问于2019-12-11
得票数 0
1
回答
scikit学习如何计算逻辑
回归
进行分类或
回归
python
、
python-2.7
、
machine-learning
、
scikit-learn
、
logistic-regression
我认为逻辑
回归
可以用于
回归
(获取0到1之间
的
数字,例如使用逻辑
回归
来预测0到1之间
的
概率)和分类。问题是,似乎在我们提供了训练数据和目标之后,逻辑
回归
可以自动计算出我们是在进行
回归
还是在进行分类?例如,在下面的示例代码中,逻辑
回归
计算出我们只需要输出是3个类0, 1, 2中
的
一个,而不是0和2之间
的
任何数字?只是好奇逻辑
回归
是如何自动计算出它是在做
回归
(输出是连续
的</em
浏览 12
提问于2016-08-25
得票数 0
1
回答
二元
自
变量
线性
回归
r
、
linear-regression
我正在尝试运行一个具有
二元
自
变量
的
线性
回归
-我希望得到1个估计值,比较那些值为1
的
值和那些值为0
的
值,然而,当我运行模型时,我得到了2个估计值-1
对
于
二元
变量
的
每个值?有没有想过我可能做错了什么?(我已经检查过了,我
的
变量
绝对是二进制编码为0和1)Call: lm(fo
浏览 0
提问于2018-06-26
得票数 0
1
回答
在STATA中应用
线性
回归
之前,如何
对
序数数据进行编码?
linear-regression
、
encoding
、
stata
我有一个数据集,有学生成绩分数(连续和因
变量
)、教师资格(普通和自
变量
包含类别:硕士、学士、高中)。我想运用
回归
分析
的
方法来检验教师资格
对
学生成绩
的
影响
。 如何在应用
线性
回归
之前
对
序数数据进行编码?
浏览 0
提问于2020-07-29
得票数 1
回答已采纳
2
回答
改进
线性
回归
模型
的
技巧
machine-learning
、
python
、
regression
、
linear-regression
我刚刚在包含7个自
变量
和1个目标
变量
的
数据集上运行了一个
线性
回归
模型。下面是R平方和MSE值。训练集
的
均方误差: 36530921.0123有人能给我一些建议来提高这个型号
的
效率吗? 编辑:我刚刚实现了同样
的
问题,使用
线性
回归
和归一化
的
特性。我得到了以下输出:训练集
的
均方误差: 5.468490570335696e-10训练
浏览 0
提问于2018-04-18
得票数 3
回答已采纳
2
回答
什么时候在数据分析问题中使用缺失数据归属法?
dataset
、
data-cleaning
、
missing-data
、
data-imputation
根据研究问题,对数据集进行统计分析,利用R建立logistic
回归
模型和多项式
线性
模型。但是,我想知道应该使用缺失值估算来完成数据集
的
步骤。我已经完成了
对
原始数据集中每个
变量
的
单
变量
分析,发现有三个连续
变量
和两个类别
变量
,有大量
的
缺失数据。在对每一个
变量
进行
二元
分析和图解处理后,我想使用缺失数据
的
归一化来完成数据集
的
处理。但我不确定这是不是个正确
浏览 0
提问于2019-08-11
得票数 6
1
回答
如何处理大量
的
共线
变量
?
python
、
scikit-learn
、
feature-extraction
我有这个时间系列数据集,它有63个特性,其中57个是手工设计
的
。在检查共
线性
时,我得到了这个相关矩阵:可以看出,有许多
变量
是相关
的
/共线
的
。那些深红色的当然需要移除,但是那些在蓝色范围内
的
呢?这些
变量
(关于共
线性
的
负范围)是如何
影响
回归
模型
的
?另外,我从sklearn.feature_extraction模块中运行了一个递归
的
特征提取过程,它建议我
浏览 0
提问于2019-10-20
得票数 2
回答已采纳
1
回答
理解
线性
回归
的
一个假设:多重共
线性
regression
、
predictive-modeling
、
linear-regression
、
collinearity
多共
线性
是多元
线性
回归
的
主要假设之一,当自
变量
之间
的
相关性过高时,多元共
线性
就会出现。然而,在学习
线性
回归
时,关键问题之一是在模型中引入交互项来模拟交互效应,即当自
变量
对
因
变量
的
影响
发生变化时,取决于其他一个或多个自
变量
的
值(S)。 这两种说法不矛盾吗?如果模型中
的
X_1和X_2之间真的存在交
浏览 0
提问于2020-08-13
得票数 1
1
回答
删除相关性较低
的
特性
的
风险是什么?
regression
、
feature-selection
、
feature-extraction
我正在运行一个
线性
回归
模型,作为一个特定估计问题
的
基线。根据得到
的
R-平方、
回归
系数及其各自
的
p-值,我可以得出这样
的
结论:可以从模型中删除特定
的
自
变量
。如果不运行“非
线性
”
回归
器,我
浏览 0
提问于2018-03-13
得票数 3
2
回答
如何获得R中二进制h2o GBM中每个类
的
不同
变量
重要性?
r
、
machine-learning
、
classification
、
h2o
、
gbm
我试图探索使用GBM与h2o一起解决分类问题,以取代logistic
回归
(GLM)。我
的
数据中
的
非
线性
和交互作用使我认为GBM更适合。我已经运行了一个基线GBM (见下文),并将AUC与logistic
回归
的
AUC进行了比较。THe GBM性能要好得多。在经典
的
线性
logistic
回归
中,我们可以看到每个预测因子(x)
对
结果
变量
(y)
的
方向和
影响
。 现在,我想用同
浏览 5
提问于2017-12-02
得票数 22
1
回答
线性
回归
中
的
极小估计
r
、
linear-regression
因此,我试图在两个
变量
之间进行
线性
回归
,自
变量
是“年”,而相依
变量
是“价格”。因此,我试图确定一年
对
价格
的
影响
。我在R中做了这样
的
线性
回归
:summary(model_price_Year) 我得到了以下结果:这是正确
的
吗?我该怎么解释呢?
浏览 2
提问于2022-05-09
得票数 1
回答已采纳
2
回答
二元
因
变量
和
二元
(或范畴)特征
的
logistic
回归
或密度估计
logistic-regression
、
categorical-data
、
binary
、
binary-classification
、
density-estimation
我有一个二进制因
变量
t和分类特性。我们甚至可以简化为二进制特性,因为我可以一个热编码
的
分类
变量
。在实践中,单热编码会导致二进制特征中
的
共
线性
,所以为了简单起见,让我们假设我们只有D二进制特征。其目的是估计t=1
的
概率。 原则上,我可以使用logistic
回归
。但是,考虑到输入数据
的
分类性质,他们实际上定义了一个2^D单元格表。然而,logistic
回归
假设日志概率是输入
变量
的
线性
函
浏览 0
提问于2021-07-06
得票数 0
回答已采纳
1
回答
如何开始分析和建模一个学术项目的数据,而不是统计学家或数据科学家
dataset
、
predictive-modeling
、
data-cleaning
、
linear-regression
在我收集
的
数据中,有623项观察,包括一个连续因
变量
和13个自
变量
(连续、分类和序数),它们是根据研究经验和文献综述定义
的
。我考虑做几个
回归
分析来预测因
变量
,并研究其上
的
影响
因素(如果它们是正
的
、负
的
,以及它们
的
大小)。我尝试过多元
线性
回归
,包括
对
自
变量
的
不同变换。另一方面,我不确定是否应该研究每一个自
浏览 0
提问于2015-09-19
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习(六)——线性回归的多变量、特征缩放、标准方程法
手把手教你用Python解决单一变量的线性回归问题
SPSSAU教程05:相关回归分析指标解读
二元逻辑回归的简介与操作演示
在R语言中实现Logistic逻辑回归
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券