首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

文科生都能看懂的机器学习教程:梯度下降、线性回归、逻辑回归

当我们制作更正常分布的东西时,我们基本上把它放在一个非常容易使用的尺度上。   当我们采用log-odds时,我们将odds的范围从0正无穷大转换为负无穷正无穷大。...logit函数,用图表绘制   正如您在上面所看到的,logit函数通过取其自然对数将我们的odds设置为负无穷大到正无穷大。   Sigmoid函数   好的,但我们还没有达到模型给我们概率的程度。...现在,我们所有的数字都是负无穷大到正无穷大的数字。名叫:sigmoid函数。   sigmoid函数,以其绘制时呈现的s形状命名,只是log-odds的倒数。...通过得到log-odds的倒数,我们将我们的值从负无穷大正无穷大映射到0-1。反过来,让我们得到概率,这正是我们想要的!   ...与logit函数的图形相反,其中我们的y值范围从负无穷大到正无穷大,我们的sigmoid函数的图形具有0-1的y值。好极了!   有了这个,我们现在可以插入任何x值并将其追溯到预测的y值。

66410

文科生都能看懂的机器学习教程:梯度下降、线性回归、逻辑回归

当我们制作更正常分布的东西时,我们基本上把它放在一个非常容易使用的尺度上。 当我们采用log-odds时,我们将odds的范围从0正无穷大转换为负无穷正无穷大。可以在上面的钟形曲线上看到这一点。...恐怖的不可描述的数学。呃,我的意思是logit函数。 logit函数,用图表绘制 正如您在上面所看到的,logit函数通过取其自然对数将我们的odds设置为负无穷大到正无穷大。...Sigmoid函数 好的,但我们还没有达到模型给我们概率的程度。现在,我们所有的数字都是负无穷大到正无穷大的数字。名叫:sigmoid函数。...sigmoid函数,以其绘制时呈现的s形状命名,只是log-odds的倒数。通过得到log-odds的倒数,我们将我们的值从负无穷大正无穷大映射到0-1。反过来,让我们得到概率,这正是我们想要的!...与logit函数的图形相反,其中我们的y值范围从负无穷大到正无穷大,我们的sigmoid函数的图形具有0-1的y值。好极了! 有了这个,我们现在可以插入任何x值并将其追溯到预测的y值。

72630
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    machine learning 之 logistic regression

    当样本只有上下的8个红色叉叉时,玫红色的直线是线性回归的结果,当选取阈值为0.5时,根据玫红色的竖线,可以将正类和负类分开,没有问题; 但是,当添加一个样本,如图中的绿色叉叉,回归线就变成了绿色的直线,...这时选取0.5为阈值时,会把上面的4个红色叉叉(正类)分到负类里面去,问题很大了; 此外,在二分类问题中,y=0或者y=1,而在线性回归中,$h_\theta(x)$可以大于1,也可以小于0,这也不合理...如果考虑线性回归的情况,损失函数为平方损失,对于线性回归中的简单函数,这样子定义的损失函数是个凸函数,易求解;但是在逻辑回归中,模型是个复杂的非线性函数($g(z)=\frac{1}{1+e^{-z}}...$),平方损失下的损失函数不是个凸函数,有非常多的local minimal,不好求解;所以对逻辑回归,需要换个损失函数。...趋向于无穷大;符合逻辑; 当y=0时,函数图像如右图所示,当$h_\theta(x)=0$时,cost=0;当$h_\theta(x)=1$时,cost趋向于无穷大;符合逻辑; ?

    34810

    机器学习篇(六)

    不管是广告点击还是是否为垃圾邮箱,这些都是简单的二分类问题.也就是说逻辑回归擅长于二分类问题。 逻辑回归的公式和线性回归公式是一样的。所以线性回归中的问题,在逻辑回归中一样会遇见。 比如过拟合等。...逻辑回归将一个线性回归的输入转换成了一个分类问题。这就是逻辑回归的核心。 这个核心叫做sigmoid函数。 sigmoid函数的样子: ? sigmoid函数将闲心回归的输入转变成了0~1之间的值。...该函数具有如下的特性:当x趋近于负无穷时,y趋近于0;当x趋近于正无穷时,y趋近于1; 当x= 0时,y=0.5....在逻辑回归中使用的损失函数是:对数似然损失函数。 对数似然损失函数的值越小,说明预测的类别准确率就越高。...在逻辑回归中以概率小的那个特征为依据,比如是否患有癌症,会算出 没有患癌症的概率计算出来。

    64950

    损失函数详解

    函数图形可视化 当sigmoid的输入变得更大并趋于正无穷时,sigmoid的输出将趋于1。当输入变小并趋于负无穷大时,输出将趋于0。...现在我们保证总是得到一个介于0和1之间的值,这正是我们所需要的,因为我们需要概率。 如果输出高于0.5(50%概率),我们将认为它属于正类,如果低于0.5,我们将认为它属于负类。...例如,如果我们训练一个网络来对猫和狗进行分类,我们可以给狗分配正类,狗数据集中的输出值为1,同样地,猫将被分配负类,猫的输出值为0。 我们用于二元分类的损失函数称为二元交叉熵(BCE)。...当我们需要预测正的类(Y = 1)时,我们将使用 Loss = -log(Y_pred) 当我们需要预测负的类(Y = 0)时,我们将使用 Loss = -log(1-Y_pred) 正如你在图表中看到的...第一个函数,当Y_pred = 1,损失= 0,这是有道理的,因为Y_pred与y完全相同,当Y_pred值变得更接近0,我们可以观察到的损失价值以非常高的速度增加,当Y_pred变成0它趋于无穷大。

    92320

    机器学习:Logstic回归

    如果只有0或1两种解,则称为一个二元分类问题,其中0称为负类,1称为正类,由于二元分类问题比较简单,下面都以二元分类问题为例,最后会介绍多元分类问题。...三、决策边界 已经有了假设函数了,现在考虑什么时候将某个样本预测为正类,什么时候预测为负类。...,否则为负类,当然 h_{\theta}(x) = 0.5 时归为正类和负类都可以,这里归为正类,观察logistic函数图像,我们可以得知,当 z = \theta^Tx\ge0 时 g(z)...,则这条线上方的都被预测为正类,下方的都被预测为负类,这条线就被称为决策边界,决策边界属于假设函数的一个属性,只由模型参数决定,与数据集无关。...类似于线性回归中,可以在特征中添加额外的高次多项式项达到拟合非线性数据的目的,在Logistic回归中,也有这样的操作: 四、代价函数 如果使用线性回归中的代价函数,由于假设函数的改变,会使得代价函数变成一个非凸函数

    72120

    要做好深度学习任务,不妨先在损失函数上「做好文章」

    Sigmoid 函数图可视化 当 Sigmoid 函数中的输入变大并趋向于正无穷时,该函数的输出值会趋近于 1。与此同时,当输入趋向于负无穷时,该函数的输出值会趋近于 0。...如果输出值大于 0.5(50% 的概率),我们将类视为从属于正类 (Positive class);如果输出值低于 0.5,则将类视为从属于负类(negative class)。...例如,假如我们训练一个网络来对猫和狗进行分类,我们可以将狗分为正类,这样的话,狗在数据集中的输出值就是 1;同样地,我们将猫分为负类,猫的输出值就是 0。...当我们需要预测正类(Y=1)时,我们使用: Loss = -log(Y_pred) 当我们需要预测负类(Y-=0)时,我们使用: Loss = -log(1-Y_pred) 如图所示,在第一个函数中,当...回归损失 在回归中,我们的模型尝试预测一个连续值。一些回归模型的示例有: 房价预测 人的年龄预测 ......

    85320

    算法研习:Logistic算法原理分析

    根据经验如果预测概率大于或等于0.5,那么我们可以标记为YES;如果预测概率小于0.5,那么我们可以标记为NO;然而线性回归的范围是从负无穷到正无穷,而不是[0,1]。...要解决这个问题,就需要使用Sigmoid函数了。其函数表达式为: ? Sigmoid函数具有许多属性。 ? ? ? 因此在逻辑回归中,y可以写为: ? 记住这个表达式,下边我们会用到。...例如,如果通过线性回归和逻辑回归预测违约概率,则通过线性回归的一些预测概率甚至是负的,而逻辑回归不会出现这样的问题。见下图。 ? 线性回归的另一个问题是预测值总是基数,如1,2,3,而不是类别。...这就是似然函数、sigmoid函数以及逻辑回归损失函数三者之间的数学联系。 梯度下降 与具有封闭形式解的线性回归不同,逻辑回归采用梯度下降来寻找最优解。...从上图可以看出,损失函数先急剧下降; 经过40000次迭代后趋于稳定。

    1.1K20

    基于逻辑回归的分类概率建模

    在Adaline中,我们的激活函数为恒等函数,在逻辑回归中,我们将sigmoid函数作为激活函数。sigmoid函数的输出则被解释为样本的分类标签属于1的概率。...另一个选择是改写对数似然函数作为代价函数J,用梯度下降函数最小化代价函数。L函数越趋近于1,则越拟合,所以对数似然函数越趋近于0(为负),则越拟合,因此J函数越趋近于0(为正),越小越拟合。...() plt.show() 执行这段代码,可以看到如下图所示的曲线,可知当z趋向无穷大时,sigmoid函数值趋向于1,类似的,z趋向无穷小时,sigmoid函数趋向于0。...在Adaline中,我们的激活函数为恒等函数,在逻辑回归中,我们将sigmoid函数作为激活函数。sigmoid函数的输出则被解释为样本的分类标签属于1的概率。...另一个选择是改写对数似然函数作为代价函数J,用梯度下降函数最小化代价函数。L函数越趋近于1,则越拟合,所以对数似然函数越趋近于0(为负),则越拟合,因此J函数越趋近于0(为正),越小越拟合。

    22520

    Numpy 常量

    此外,正无穷大不等于负无穷大。 但无穷大相当于正无穷大。  返回  y : float (正无穷大的浮点表示。)  另见  isinf : 显示哪些元素为正或负无穷大。...isfinite : 显示哪些元素是有限的(不是非数字,正无穷大和负无穷大中的一个)  >>> np.inf inf >>> np.array([1]) / 0. array([ Inf]) np.nan...isfinite : 显示哪些元素是有限的(不是非数字,正无穷大和负无穷大中的一个)  >>> np.nan nan >>> np.log(-1) nan >>> np.log([-1, 1, 2])...返回  y = np.PZERO() : float (正零的浮点表示)y = np.NZERO() : float (负零点的浮点表示)  另外  isinf : 显示哪些元素为正或负无穷大。...isfinite : 显示哪些元素是有限的 - 不是(非数字,正无穷大和负无穷大)之一。

    93630

    100页的机器学习入门书:只要有基础数学知识就能看懂!(免费下载)

    问题陈述 在逻辑回归中,我们仍然希望将 ? 建模为 ? 的线性函数,但是对于二元 ? ,这就不是那么简单了。像 ? 这样的特征的线性组合是从负无穷大到正无穷大的函数,而 ? 只有两个可能的值。...在没有计算机的年代,科学家们不得不手工进行计算,他们非常想找到一个线性分类模型。他们发现如果将负标签定义为0,将正标签定义为1,就只需要找到一个codomain为(0,1)的简单连续函数。...在这种情况下,如果模型为输入x返回的值更接近于0,那么我们为x分配负标签,否则,该示例将被标记为正。具有这种属性的一个函数是标准逻辑函数(也称为sigmoid函数): ? 如图3所示。 ?...图4:决策树构建算法的图示。 3.4 支持向量机 关于SVM,有两个重要问题需要回答: 如果数据中存在噪声,并且没有超平面可以将正例和负例完美分开,该怎么办?...一旦出现了一个新的、以前没见过的示例,kNN算法会在D维空间中找到k个最接近的例子并返回多数标签(在分类的情况下)或平均标签(在回归的情况下)。 两点的接近程度由距离函数给出。

    1.4K20

    机器学习入门 9-1 什么是逻辑回归

    a 什 么 是 逻 辑 回 归 这一章介绍一个全新的机器学习算法~逻辑回归算法。 ?...但是在逻辑回归中,得到的y值本质上是一个概率值(用p来表示),也就是说对于逻辑回归来说,得到一个f函数,此时来了一个样本x,将这个x放进f函数中计算得到的一个概率值p,之后根据这个概率值p进行分类。...b Sigmoid 函 数 对于前几章学习的线性回归算法,来了一个包含若干特征的样本x,经过训练得到f(x),计算得到对应这些特征的y值。在线性回归中,f(x)函数其实就是θT乘以xb。...不论如何最终得到y的值域在负无穷到正无穷之间。换句话说,通过线性回归这种方式,可以求出得到任意的值。那么使用什么样的方式才能将其表示为事件发生的概率呢? ?...当t取负无穷的时候,e的负t次方是一个非常大的值,也就是说1除上1加上一个非常大的值,计算得到的结果无穷分之一,最终计算的结果趋近于0; 当t取正无穷的时候,e的负t次方就无限逼近于0,此时,1除上1加上一个无限小近乎为

    62410

    带你理解对比学习损失函数的性质以及温度系数的作用

    首先总结下本文的发现: 1.对比损失函数是一个具备困难负样本自发现性质的损失函数,这一性质对于学习高质量的自监督表示是至关重要的,不具备这个性质的损失函数会大大恶化自监督学习的性能。...直观来说,该损失函数要求第i个样本和它的另一个augmentation的副本(即正样本)之间的相似度 尽可能大,而与其他的实例(负样本)之间的相似度 尽可能小。...即选取最相似的4096个样本作为负样本,并用Eq2的简单损失作为损失函数,采用显式困难样本挖掘算法的简单损失函数效果大大提升,远远超过了温度系数取0.07时的对比损失。...作者为了更具体的解释温度系数的作用,计算了两种极端情况,即温度系数趋向于0和无穷大。 当温度系数趋向于0时: 可以看出,此时对比损失退化为只关注最困难的负样本的损失函数。...而当温度系数趋向于无穷大时: 此时对比损失对所有负样本的权重都相同,都为 ,即对比损失失去了困难样本关注的特性。有趣的是,当温度系数趋向于无穷时,该损失便变成了之前介绍的简单损失 。

    6.8K30

    重新思考推荐中的平均准确率指标优化

    这里,我们先给出 L_{AP} 的定义: 其中 R(i,S_P) 为排在正样本 i 前面的正样本个数, R(i,S_N) 为排在正样本 i 前面的负样本个数。...其中 PNP-I_{u} 的导函数和损失函数如下: 可以看出,当损失为0时,导函数也将为0;当函数趋于无穷时,导函数也趋于无穷。...其函数和导函数如下所示: 这两个函数的导数函数都是递减的,这意味着有较少负样本排在前面的正样本会受到更多的惩罚,这两个损失函数会迅速纠正这种情况。...2.3 Discussion PNP-I对于排名前有较多负样本的正样本的梯度越大,而PNP-D对该类正样本的梯度越小。PNP-I尝试将所有相关样本放在一起。...Conclusion 在本文中,作者提出了一种新的PNP损失,它通过惩罚排在正样本之前的负样本来提高检索性能。此外,作者发现不同损失的导数函数对应不同的梯度赋值。

    21720

    从零开始学习线性回归:理论、实践与PyTorch实现

    在逻辑回归中,我们使用一个线性模型和一个激活函数来实现这个映射。...这里我们引入Logistic函数,使用极限很清楚的得出x趋向于正无穷的时候函数为1,x趋向于负无穷的时候,函数为0,x=0的时候,函数为0.5,当我们计算的时候将y ^ \hat{y}y^​带入这样就会出现一个...下图展示一些其他的Sigmoid函数交叉熵过去我们所使用的损失函数普遍都是MSE,这里引入一个新的损失函数—交叉熵==交叉熵(Cross-Entropy)==是一种用于衡量两个概率分布之间差异的数学方法...它是一个非常重要的损失函数,用于衡量模型的预测与真实标签之间的差异,从而帮助优化模型参数。...损失函数: 在机器学习中,交叉熵通常用作损失函数,用于衡量模型的预测与真实标签之间的差异。在分类任务中,通常使用交叉熵作为模型的损失函数,帮助模型优化参数以提高分类性能。

    25010

    【Python常用函数】一文让你彻底掌握Python中的numpy.Inf函数

    大数据时代的到来,使得很多工作都需要进行数据挖掘,从而发现更多有利的规律,或规避风险,或发现商业价值。 而大数据分析的基础是学好编程语言。...本文和你一起来探索Python中的Inf函数,让你以最短的时间明白这个函数的原理。 也可以利用碎片化的时间巩固这个函数,让你在处理工作过程中更高效。...import numpy as np np.Inf 得到结果: inf 三、Inf函数实例 1 创建正无穷大的值 首先导入numpy库,创建一个正无穷大的值,具体代码如下:...在大多数情况下,与np.Inf进行数学运算会产生Inf或nan(不是数字)的结果。...得到结果: True False False False 即Inf比有限数要大,且Inf特指正无穷大,不是负无穷大。

    1.1K20

    机器学习-梯度消失爆炸

    机器学习-梯度消失爆炸 梯度消失 本层的神经元的激活等于上一层神经元对应的权值进行加权和运算, 最后通过一个非线性函数(激活函数)如ReLu,sigmoid等函数, 最后得到的结果就是本层神经元的输出,...因为通常神经网络所用的激活函数是sigmoid函数 这个函数有个特点: 就是能将负无穷到正无穷的数映射到0和1之间,并且对这个函数求导的结果是f′(x)=f(x)(1−f(x))。...神经网络的反向传播是逐层对函数偏导相乘,因此当神经网络层数非常深的时候 最后一层产生的偏差就因为乘了很多的小于1的数而越来越小,最终就会变为0,从而导致层数比较浅的权重没有更新 一是在深层网络中,网络层数过多二是采用了不合适的损失函数...解决 用ReLU激活函数来替代sigmoid函数。...区别:(1)sigmoid函数值在[0,1],ReLU函数值在[0,+无穷],所以sigmoid函数可以描述概率,ReLU适合用来描述实数;(2)sigmoid函数的梯度随着x的增大或减小和消失,而ReLU

    65720

    出场率No.1的逻辑回归算法,是怎样“炼成”的?

    那我们可不可以找到一组参数,与特征矩阵相乘,直接得到表示概率的结果呢? 单单从应用的角度来说,是可以的,但是并不好。这是因为线性回归得到值是没有限制的,值域从负无穷到正无穷的值。...当客户主观认为正效用大于负效用时,可就是购买行为带来的整体效用大于0时,客户就会购买,反之则不然。...其中是相互独立的随机变量,且都服从正态分布。 在得到正负效用线性函数之后,就可以用正效用减去负效用的解是否大于0作为分类依据。令,则可以得到:。...其图像如下图所示,呈S状,因此也被称为“S函数”。当t趋近于正无穷时,趋近于0,则趋近于1;当t趋近于负无穷时,趋近于正无穷,则趋近于0。因此该函数的值域为(0,1)。 ?...为了使数学公式更为简单,使用sigmoid函数去近似,最终得到逻辑回归模型: 根据建模过程,我们已经得到了逻辑回归模型,下一步就是找到损失函数,去尽可能地拟合数据。

    76421

    信号的频谱 频谱密度 功率谱密度 能量谱密度

    若信号能量是一个正的有限值,即 ? ,则称为能量信号,此时的平均功率定义为: ?   由于积分里面是个有限值,而T是无穷大,因此P=0,所以能量信号的平均功率是0....而阶跃信号(或者某个电压非0的直流信号或周期信号)就是功率信号,因为它在无穷大区间上的积分是无穷大。   ...但我们可以找到物理上实信号的频谱和数学上的频谱函数的关系,对于物理可实现信号有 ? 即频谱函数的正频率部分和负频率部分间存在复数共轭关系。...这就是说,负频谱和正频谱的模是偶对称的,相位是奇对称的。   对于非周期性的功率信号,原则上可以看成周期等于无穷大,仍然可以按照以上公式,但是实际上的积分是难以计算的。...能量信号的频谱密度:   设一个能量信号为 s(t) ,则将它的傅里叶变换定义为它的频谱密度: ?   傅里叶变换存在的条件是f(t)在负无穷到正无穷的区间内积分为有限大,即绝对可积。

    3.7K30

    深度学习4大激活函数

    ,才不会被单层网络替代,神经网络才有了意义 可微性:优化器大多数是用梯度下降来更新梯度;如果不可微的话,就不能求导,也就不能更新参数 单调性:激活函数是单调的,能够保证网络的损失函数是凸函数,更容易收敛...,尤其是逻辑回归中算法中的常用激活函数;也可以作为较少层数的神经网络的激活函数。...该函数是一个连续可导的函数;通过导数函数的图像能够观察到:0点时候,导函数的值最大,并且两边逐渐减小 缺陷 从导数函数的图像中观察到,X在正无穷大或者负无穷小的时候,导数(梯度)为0,即出现了梯度弥散现象...ReLu 函数 Leaky ReLu 函数是为了解决Relu函数负区间的取值为0而产生的。...,而且不会造成Dead ReLu问题 函数本身的取值在负无穷到正无穷;负区间梯度也存在,从而避免了梯度消失。

    38430
    领券