专栏首页机器学习与统计学R语言教程之-线性回归

R语言教程之-线性回归

回归分析是一种非常广泛使用的统计工具,用于建立两个变量之间的关系模型。 这些变量之一称为预测变量,其值通过实验收集。 另一个变量称为响应变量,其值从预测变量派生。

在线性回归中,这两个变量通过方程相关,其中这两个变量的指数(幂)为1.数学上,线性关系表示当绘制为曲线图时的直线。 任何变量的指数不等于1的非线性关系将创建一条曲线。

线性回归的一般数学方程为 -

y = ax + b

以下是所使用的参数的描述 -

  • y是响应变量。
  • x是预测变量。
  • ab被称为系数常数。

建立回归的步骤

回归的简单例子是当人的身高已知时预测人的体重。 为了做到这一点,我们需要有一个人的身高和体重之间的关系。

创建关系的步骤是 -

  • 进行收集高度和相应重量的观测值的样本的实验。
  • 使用R语言中的lm()函数创建关系模型。
  • 从创建的模型中找到系数,并使用这些创建数学方程
  • 获得关系模型的摘要以了解预测中的平均误差。 也称为残差。
  • 为了预测新人的体重,使用R中的predict()函数。

输入数据

下面是代表观察的样本数据 -

# Values of height
151, 174, 138, 186, 128, 136, 179, 163, 152, 131

# Values of weight.
63, 81, 56, 91, 47, 57, 76, 72, 62, 48

LM()函数

此函数创建预测变量和响应变量之间的关系模型。

语法

线性回归中lm()函数的基本语法是 -

lm(formula,data)

以下是所使用的参数的说明 -

  • 公式是表示xy之间的关系的符号。
  • 数据是应用公式的向量。

创建关系模型并获取系数

x <- c(151, 174, 138, 186, 128, 136, 179, 163, 152, 131)
y <- c(63, 81, 56, 91, 47, 57, 76, 72, 62, 48)

# Apply the lm() function.
relation <- lm(y~x)

print(relation)

当我们执行上面的代码,它产生以下结果 -

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept)            x  
   -38.4551          0.6746 

获取相关的摘要

x <- c(151, 174, 138, 186, 128, 136, 179, 163, 152, 131)
y <- c(63, 81, 56, 91, 47, 57, 76, 72, 62, 48)

# Apply the lm() function.
relation <- lm(y~x)

print(summary(relation))

当我们执行上面的代码,它产生以下结果 -

Call:
lm(formula = y ~ x)

Residuals:
    Min      1Q     Median      3Q     Max 
-6.3002    -1.6629  0.0412    1.8944  3.9775 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) -38.45509    8.04901  -4.778  0.00139 ** 
x             0.67461    0.05191  12.997 1.16e-06 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 3.253 on 8 degrees of freedom
Multiple R-squared:  0.9548,    Adjusted R-squared:  0.9491 
F-statistic: 168.9 on 1 and 8 DF,  p-value: 1.164e-06

predict()函数

语法

线性回归中的predict()的基本语法是 -

predict(object, newdata)

以下是所使用的参数的描述 -

  • object是已使用lm()函数创建的公式。
  • newdata是包含预测变量的新值的向量。

预测新人的体重

# The predictor vector.
x <- c(151, 174, 138, 186, 128, 136, 179, 163, 152, 131)

# The resposne vector.
y <- c(63, 81, 56, 91, 47, 57, 76, 72, 62, 48)

# Apply the lm() function.
relation <- lm(y~x)

# Find weight of a person with height 170.
a <- data.frame(x = 170)
result <-  predict(relation,a)
print(result)

当我们执行上面的代码,它产生以下结果 -

       1 
76.22869 

以图形方式可视化回归

# Create the predictor and response variable.
x <- c(151, 174, 138, 186, 128, 136, 179, 163, 152, 131)
y <- c(63, 81, 56, 91, 47, 57, 76, 72, 62, 48)
relation <- lm(y~x)

# Give the chart file a name.
png(file = "linearregression.png")

# Plot the chart.
plot(y,x,col = "blue",main = "Height & Weight Regression",
abline(lm(x~y)),cex = 1.3,pch = 16,xlab = "Weight in Kg",ylab = "Height in cm")

# Save the file.
dev.off()

当我们执行上面的代码,它产生以下结果 -

本文分享自微信公众号 - 机器学习与统计学(tjxj666)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2017-08-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • R Programming-week1 Reading Data

    There are a few principal functions readingdata into R.

    统计学家
  • R in action读书笔记(8)-第八章:回归

    口同方差性因变量的方差不随自变量的水平不同而变化。也可称作不变方差,但是说同方差性感觉上更犀利。

    统计学家
  • Pandas切片操作:一个很容易忽视的错误

    Pandas是一个强大的分析结构化数据的工具集,主要用于数据挖掘和数据分析,同时也提供数据清洗功能。

    统计学家
  • ISLR_LinearRegression

    Simple linear regression Estimating the coefficients Assessing the accuracy of t...

    用户1147754
  • webapi批量上传照片(三)(base64)

    yaphetsfang
  • Domain Adaptation图像分类分割算法MCD_DA|CVPR2018Oral论文

    通过带标签的source domain的图片和标签训练得到一个网络模型,利用target image 进行domain adaptation 操作,使得sour...

    AI深度学习求索
  • 独家 | 决策树VS随机森林——应该使用哪种算法?(附代码&链接)

    本文以银行贷款数据为案例,对是否批准顾客贷款申请的决策过程进行了算法构建,并对比了决策树与随机森林两种机器学习算法之间的异同及各自的优劣。

    数据派THU
  • Python 技术篇-将项目打包成whl文件,whl包的制作方法

    这就是whl的打包命令,我下了一个PyHook3的源码来进行试验,就是.tar.gz结尾的文件解压后就能看到项目源码。

    小蓝枣
  • 网址缩短,网址压缩源码

    主要功能有:完整的后台管理、功能齐全的用户面板、用户系统、社交分享、短网址统计、短网址自定义、多国语言支持、社交分享以及API系统等。

    叮当叮
  • Matlab fvtool滤波器频响的幅度显示归一化

    我们在用matlab设计滤波器后,可以用fvtool来看滤波器的频响,比如我们有了滤波器的系数后,直接用fvtool。

    猫叔Rex

扫码关注云+社区

领取腾讯云代金券