学习
实践
活动
工具
TVP
写文章

logistic回归

深入解读Logistic回归结果(一):回归系数,OR (2016-03-08 06:40:50) 转载▼ 标签: logistic回归 教育 杂谈 分类: 统计理论 Logistic回归虽然名字叫”回归 一 从线性回归Logistic回归线性回归Logistic回归都是广义线性模型的特例。 回归      首先拟合一个不包含任何变量的Logistic回归,      模型为 ln(p(1-p) =β0      回归结果如下(结果经过编辑): hon 系数β 标准误 P 截距 -1.12546 回到Logistic回归结果。截距的系数-1.47是男性odds的对数(因为男性用female=0表示,是对照组),ln(0.23) = -1.47。 3、包含一个连续变量的模型      拟合一个包含连续变量math的Logistic回归,      模型为 ln(p(1-p)  =β0 +β1* math.

27610

Logistic回归

还是回到机器学习上来,最新学习的章节是Logistic回归。 线性回归 假设现在有一些数据点,我们用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称作回归。 吴恩达的Machine Learning课程介绍的第一个机器学习算法就是线性回归,课程非常浅显易懂,免费且有中文字母,值得学一学。 基于Logistic回归和Sigmod函数的分类 在Machine Learning课程中,对于线性回归是以房价预测为例子进行说明的,但若要做的是分类任务该怎么办? 答案在广义线性模型中:只需找一个单调可微函数将分类任务的真实标记y与线性回归模型的预测值联系起来。 利用Logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。 一种改进方法是一次仅用一个样本来更新回归系数,该方法成为随机梯度上升算法。

31820
  • 广告
    关闭

    2022腾讯全球数字生态大会

    11月30-12月1日,邀您一起“数实创新,产业共进”!

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Logistic回归

    Logistic回归 一些约定和基础 一般约定,x的上标(i)表示第i个样本;在矩阵中表示样本,通常将样本各个维度的特征写成列向量,一列就是一个样本的各个特征。 在python里的表示为 Y.shape # (1, m) 在Logistic回归中,我们总希望通过z = w.transpose * x + b获得每个x(i)的预测值y-hat(i),而且我们希望 具体到Logistic回归里面,我们的过程简化为两个样本的回归

    9430

    logistic回归详解(二):损失函数(cost function)详解

    对于逻辑回归来说,就是一种典型的有监督学习。 在logistic回归详解一(http://blog.csdn.net/bitcarmanlee/article/details/51154481)中,我们花了一整篇篇幅阐述了为什么要使用logistic 回归来说,模型自然就是logistic回归,策略最常用的方法是用一个损失函数(loss function)或代价函数(cost function)来度量预测错误程度,算法则是求解过程,后期会详细描述相关的优化算法 logistic函数求导 KaTeX parse error: No such environment: align at position 7: \begin{̲a̲l̲i̲g̲n̲}̲ g'(z) 损失函数详解 根据上面的内容,我们可以得到逻辑回归的对数似然损失函数cost function: c o s t ( h θ ( x ) , y ) = { − l o g ( h θ ( x )

    13310

    理解 logistic 回归

    在今天这篇文章中,SIGAI 将对 logistic回归的某些关键点进行阐述,帮助大家加深对这种算法的理解。 logistic回归简介 logistic回归由Cox在1958年提出[1],它的名字虽然叫回归,但这是一种二分类算法,并且是一种线性模型。 虽然用了非线性的logistic函数,但并不能改变logistic回归是一个线性分类器的本质,因为logistic函数是一个单调增函数。 通过实验也可以直观的说明,logistic回归是一个线性模型。 logistic回归是一个凸优化问题 下面我们来证明一个重要结论,logistic回归训练时优化的目标函数是凸函数。下面分两种情况进行证明。 推广到多类 logistic回归只能用于二分类问题,将它进行推广可以得到处理多类分类问题的softmax回归,思路类似,采用指数函数进行变换,然后做归一化。

    1.7K10

    python logistic回归

    常用的分类与预测算法 回归分析 决策树 人工神经网络 贝叶斯网络 支持向量机 其中回归分析包括: 线性回归---自变量因变量线性关系,最小二乘法求解。 非线性回归--自变量因变量非线性关系,函数变换为线性关系,或非线性最小二乘方法求解。 logistic回归--因变量一般有1和0两种取值,将因变量的取值范围控制再0-1范围内,表示取值为1的概率。 一般自变量和因变量之间存在线性关系的时候,就可以用线性回归的方法,而两者之间呈现的是某种曲线特性时,就用非线性回归,当自变量之间出现多重共线时,用最小二乘估计的回归系数不准确,则主要用岭回归和主成分回归法 logistics回归 p=P(y=1|X),取0概率是1-p,取1和取0的概率之比为p/1-p,成为事件的优势比odds,odds取对数得到Logistic变换Logit(p)=ln(p/1-p), 再令Logit(p)=ln(p/1-p)=z ,则可以求出p=1/1+e^-z,则为Logistic函数。

    76020

    logistic回归建模指南

    昨天的logistic回归:从生产到使用【上:使用篇】(在微信公众号“数说工作室”中回复“logit1”查看),有不少数说网友们建议把最后的建模指南图单独发一下。 另外对logistic的拟合原理(涉及到梯度下降、极大似然等等的有关概念),以及Python等语言的编程实现感兴趣的,可以等待【下:生产篇】吧~ 本图包括建模思路和相应的模型SAS代码,可以点击查看大图

    46180

    机器学习-Logistic回归(Logistic Regression)案例

    它是一种分类而非回归算法。它用于根据给定的自变量集估计离散值(二进制值,如0/1,yes/no,true/false)。简单来说,它通过将数据拟合到logit函数来预测事件发生的概率。 因此,它也被称为logit回归。由于它预测概率,因此其输出值介于0和1之间(如预期的那样)。 再次,让我们通过一个简单的例子来尝试理解这一点。 假设你的朋友给你一个难题来解决。 这就是Logistic回归为您提供的。 它选择的参数最大化观察样本值的可能性,而不是最小化误差平方和(如普通回归)。 现在,您可能会问,为什么要使用log函数?为简单起见,我们只是说这是复制步进函数的最佳数学方法之一。 来看使用python的scikit-learn完成的Logistic回归案例: ? ? ?

    2.6K20

    logistic回归建模指南

    本图包括建模思路和相应的模型SAS代码,可以点击查看大图,转载请保留版权: ?----

    42550

    逻辑回归Logistic regression

    (3种学习方法+7个实操步骤+15种常见算法)》 《一文看懂监督学习(基本概念+4步流程+9个典型算法)》 逻辑回归Logistic Regression)主要解决二分类问题,用来表示某件事情发生的可能性 线性回归和逻辑回归是 2 种经典的算法。 线性回归只能用于回归问题,逻辑回归虽然名字叫回归,但是更多用于分类问题(关于回归和分类的区别可以看看这篇文章《一文看懂监督学习(基本概念+4步流程+9个典型算法)》) 线性回归要求因变量是连续性数值变量 然后通过logistic回归分析,可以得到自变量的权重,从而可以大致了解到底哪些因素是胃癌的危险因素。同时根据该权值可以根据危险因素预测一个人患癌症的可能性。 在回归分析中,逻辑回归是估计逻辑模型的参数; 它是二项式回归的一种形式。

    72410

    logistic回归与cox回归的区别

    logistic回归 logistic回归与线性回归并成为两大回归logistic回归解释起来直接就可以说,如具有某个危险因素,发病风险增加多少倍,听起来让人通俗易懂,线性回归相比之下其实际意义就弱了。 二分类logistic回归有时候根据研究目的又分为条件logistic回归和非条件logistic回归。 条件logistic回归用于配对资料的分析,非条件logistic回归用于非配对资料的分析,也就是直接随机抽样的资料。 无序多分类logistic回归有时候也成为多项logit模型,有序logistic回归有时也称为累积比数logit模型。

    9830

    对数几率回归 —— Logistic Regression

    1 原理 1.1 引入 首先,在引入LR(Logistic Regression)模型之前,非常重要的一个概念是,该模型在设计之初是用来解决0/1二分类问题,虽然它的名字中有回归二字,但只是在其线性部分隐含地做了一个回归 为了较好地掌握 logistic regression 模型,有必要先了解 线性回归模型 和 梯度下降法 两个部分的内容,可参考以下两篇文章: 线性回归 —— Liner Regression 梯度下降法 —— 经典的优化方法 先回想一下线性回归,线性回归模型帮助我们用最简单的线性方程实现了对数据的拟合,然而,这只能完成回归任务,无法完成分类任务,那么 logistics regression 就是在线性回归的基础上添砖加瓦 完整代码可参考:[link] 首先,建立 logistic_regression.py 文件,构建 LR 模型的类,内部实现了其核心的优化函数。 ) x_test = (x_test - np.min(x_test, axis=0)) / (np.max(x_test, axis=0) - np.min(x_test, axis=0)) # Logistic

    35620

    6 逻辑回归(Logistic Regression)

    6 逻辑回归(Logistic Regression) 6.1 分类(Classification) 6.2 假设函数表示(Hypothesis Representation) 6.3 决策边界 (Regularized Linear Regression) 7.4 逻辑回归正则化(Regularized Logistic Regression) 6 逻辑回归(Logistic Regression ) 6.1 分类(Classification) 在分类问题中,预测的结果是离散值(结果是否属于某一类),逻辑回归算法(Logistic Regression)被用于解决这类分类问题。 上面讨论了逻辑回归模型中线性拟合的例子,下面则是一个多项式拟合的例子,和线性回归中的情况也是类似的。 7.4 逻辑回归正则化(Regularized Logistic Regression) 为逻辑回归的代价函数添加正则化项: $J(\theta) = - \frac{1}{m} \sum_{i=1}^

    32360

    机器学习(4)——逻辑回归Logistic回归softmax回归

    前言:这里是分类问题,之所以放到线性回归的下面介绍,是因为逻辑回归的步骤几乎是和前面一样的,写出目标函数,找到损失函数,求最小值,求解参数,建立模型,模型评估。 分类算法,概率模型,返回的是属于这类模型的概率多大,交叉对数损失函数,其微分方程和梯度下降一样 softmax分类,解决数据不平均的问题,提高准确率 Logistic回归 sogmid函数 ? softmax回归 解决多分类问题 写出概率函数: ? 注:为什么用指数函数,为了表示数据的微小变动引起的概率的指数级增大, 写出损失函数 ?

    1.1K80

    Python数据科学:Logistic回归

    / 01 / Logistic回归 Logistic回归通过logit转换将取值为正负无穷的线性方程的值域转化为(0,1),正好与概率的取值范围一致。 具体公式就不列举了,此处点到为止。 Logistic回归是通过构建logit变换,从而进行概率预测。 线性回归同样也是一种预测方法。 但是Logistic回归适合预测分类变量,而且预测的是一个区间0到1的概率。 而线性回归则适合的是预测连续型变量。 此外如果遇到多元目标变量时,Logistic回归也能够进行预测。 但更多的时候,分析师更倾向于根据业务的理解将多元目标变量整合为二元目标变量,然后进行Logistic回归(如若可行)。 Logistic回归预测的是事件的概率,使用最大似然估计对概率进行参数估计。 / 03 / 模型评估 Logistic回归模型多用于做排序类模型。 而评估排序模型的指标则有ROC曲线、K-S统计量、洛伦兹曲线等。 本次以ROC曲线来说明。

    69320

    《机器学习实战》 - Logistic回归

    简介 Logistic 回归 分类基本思想: 根据现有数据对分类边界线建立回归公式,以此进行分类。 “回归”一词 源于最佳拟合,表示要找到最佳拟合参数集 Logistic 回归 优点:计算代价不高,易于理解和实现 缺点:容易欠拟合,分类精度可能不高 使用数据类型:数值型和标称型数据 2. Logistic回归也可看成概率估计。 3.2 训练算法:使用梯度上升找到最佳参数 上图 简单数据集,将使用梯度上升法,找到 Logistic回归在此数据集上的 最佳回归系数,也就是 拟合出Logistic回归模型最佳参数 梯度上升法 伪代码如下 4.2 测试算法:用Logistic回归进行分类 # logistic 回归分类函数 def classifyVector(inX, weights): """ :param inX:

    9310

    机器学习(七) ——logistic回归

    机器学习(七)——logistic回归 (原创内容,转载请注明来源,谢谢) 一、概述 1、基本概念 logistic回归(logisticregression),是一个分类(classification )算法(注意不是回归算法,虽然有“回归”二字),用于处理分类问题,即结果是离散的。 例如,预测天气、预测是否通过考试等,结果是离散的值,而预测房价这种就属于“回归”算法要解决的问题,而不是分类算法解决的问题。 2、公式 现在考虑只有两种结果情况下的logistic回归,结果只有0和1两种,即预测事件是否发生,1表示发送,0表示不发生。其h函数公式如下图所示: ? 三、代价函数 1、不能使用线性回归的代价函数公式 根据下图所示线性回归的代价函数,把h(x)用上面的1/(1+e-z)带入,求出来的结果,会是一个存在非常多极小值的函数,这样的代价函数称为非凸函数(non-convex

    42160

    深度学习 || 10 Logistic回归

    线性模型——Logistic回归 Logistic回归Logistic Regression,LR)是一种常用的处理两类分类问题的线性模型。 在本节中我们采用 以符合Logistic回归的描述习惯。 为了解决连续的线性函数不适合进行分类的问题,我们引入非线性函数 来预测类别标签的后验概率 。 在Logistic 回归中,我们使用Logistic 函数来作为激活函数。 标签 的后验概率为 标签 的后验概率为 下面给出使用线性回归Logistic 回归来解决一维的两类分类问题示例 ? 左边是线性函数, Logistic回归可以看作是预测值为“标签的对数几率”的线性回归模型。因此, Logistic回归也称为对数几率回归(Logit Regression)。 ?

    28920

    Logistic回归损失函数证明

    在理解Logistic回归算法原理中我们指出了Logistic回归的损失函数定义(在这里重新约定符号): [图片] ? 而对于全体样本集的成本函数,就可以表示为: ? ; 如果期望输出y=0,那么优化目标为min L(y,y_hat)=min[-log(1-y_hat)],显然此时y_hat的越小,优化目标会得到最小值; 下面证明下这个损失函数是怎么来的: Logistic 回归模型如下: ?

    1.2K60

    机器学习(六)— logistic回归

    最近一直在看机器学习相关的算法,今天学习logistic回归,在对算法进行了简单分析编程实现之后,通过实例进行验证。 一 logistic概述   个人理解的回归就是发现变量之间的关系,也就是求回归系数,经常用回归来预测目标值。回归和分类同属于监督学习,所不同的是回归的目标变量必须是连续数值型。    今天要学习的logistic回归的主要思想是根据现有的数据对分类边界线建立回归公式,以此进行分类。主要在流行病学中应用较多,比较常用的情形是探索某疾病的危险因素,根据危险因素预测某疾病发生的概率等等。 logistic回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释,所以实际中最为常用的就是二分类的logistic回归。    为了实现logistic回归分类器,我们可以在每个特征上乘以一个回归系数,将所有的乘积相加,将和值代入sigmoid函数中,得到一个范围为0-1之间的数,如果该数值大于0.5则被归入1类,否则被归为0类

    20320

    扫码关注腾讯云开发者

    领取腾讯云代金券