首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    敲黑板,定积分也有换元和分部积分法!

    我们用Python来举例的话,不定积分有些像是高阶函数,我们传入一个函数,得到一个函数。而定积分则就是一个计算的函数,我们传入一个函数,得到一个值。...这个是数学的惯例,我们写一个公式或者是定理或者是式子,都需要标明适用范围。我们假设函数f(x)在区间[a, b]上连续。...函数满足:在区间,或者上具有连续导数,值域是[a, b],那么: 这个式子成立非常明显,但为了严谨,我们还是来证明一遍。...我们代入原式,可以得到: 分部积分法 不定积分的分部积分法是根据求导公式推导得出的,它在定积分当中同样适用,我们只需要稍作变形就可以推导出来: 我们把上面的式子可以简写成: 来看个例子: 我们令u =...我们代入可得: 我们使用分部积分法,令u=t, dv = ,所以,代入可以得到: 总结 换元法和分部积分法是求解定积分和不定积分的两大最重要的方法,这两个方法说起来容易,理解起来也不难,但是很容易遗忘。

    81920

    高等数学——砍瓜切菜算积分的分部积分法

    当然也行,但是整体的计算会麻烦很多,我们简单代入一下就知道,如果,那么,,我们代入之后会得到一个比较复杂的式子: 我们要求这个式子的积分可能比原式还要困难,这个例子说明了一点,就是我们在选择u和v的时候不能盲目...代入式子当中之后会使得vdu变得很难计算。第二个原则是要比容易计算,这个也是显然的,不然我们还用分部积分法干嘛,不如直接算了。...所以我们令,所以,我们代入公式即可得到答案: 我们再来看一个例子: 我们令,所以,代入可得: 除了在函数选择上的诀窍之外,另一个trick是我们的分部积分法可以多次使用,对于一些比较复杂的式子通过一次拆分是不够的...我们代入原式,可以得到: 我们观察到右侧的式子当中还有一个不太好求的积分,这个时候我们继续使用分部积分法,令, 那么,我们代入可以得到: 和换元法结合 分部积分除了可以多次拆分计算之外,另一个杀器是还可以结合换元法一起使用...这个时候就需要结合上换元法了,我们令,所以 我们代入可以得到: 这个式子我们已经很熟悉了,套用一下分部积分,我们很轻松就可以得到: 总结 到这里,我们关于分部积分法的内容就结束了,不仅分部积分法讲完了,

    90820

    偏最小二乘法(PLS)

    PLS是交叉分解的第二个重要算法族,在python等语言中也有相应的包实现。...,然后再反向将 回代入自变量组 ,从而就建立起 与 的回归表达式 步骤 提取两个变量组的第一对主成分 , 由上面所述,假设 则转化成如下最优化式子 等式约束是因为标准化后自相关系数为...具体推导过程详看前一篇典型相关分析文章,核心是利用拉格朗日乘数法 建立因变量 及自变量 对 的回归 即 这里的 , 为回归的残差矩阵, 和 为多对一回归模型的系数向量 由最小二乘算法公式 观察这个式子...往往会存在相关性,所以说循环最多是r次,且此时的残差阵 和 一定是满足精度条件 而根据自变量集 对 的回归,则一定可以知道 这个系数 满足 ,这个可以根据归纳法得出 这个时候就可以将 代入进第二个式子...交叉有效性检验 思想 和交叉验证思想有所相似,但具体操作不一样,每次舍去第i个数据样本,对余下的n-1个样本用偏最小二乘算法建模并抽取h个成分得到回归式子,将舍去的第i个样本代入回归方程式,得到第i个预测值

    2.4K20

    机器学习 | 深入理解SVM,详细推导模型原理(三)

    代入消元 我们现在已经得到了下一轮迭代之后得到的新的 的取值范围,接下来要做的就是像梯度下降一样,求解出使得损失函数最小的 和 的值,由于 的值已经确定,所以我们求解出其中一个即可。...我们令 ,那么我们可以代入得到 我们把这个式子代入原式,得到的式子当中可以消去 ,这样我们得到的就是只包含 的式子。...我们可以把它看成是一个关于 的函数,为了进一步简化,我们令 这里的 表示的是第i个样本真实值与预测值之间的差,我们把上面两个式子代入原式,化简可以得到: 接下来就是对这个式子进行求导求极值,就是高中数学的内容了...我们求解这个式子,最终可以得到: 我们根据这个式子就可以求出 下一轮迭代之后的值,求出值之后,我们在和约束的上下界比较一下,就可以得到在满足约束的情况下可以取到的最好的值。...最后,我们把 代入式子求解一下 。这样我们就同时优化了一对 参数,SMO算法其实就是重复使用上面的优化方法不停地选择两个参数进行优化,直到达到迭代次数,或者是不能再带来新的提升为止。

    44331

    【分类战车SVM】第六话:SMO算法(像smoke一样简单!)

    附录:用Python做SVM模型 转载请注明来源 ---- 我有一双神奇的解题小手,不断的化简——代入——化简——代入,不断的迭代——搜索——迭代——搜索,咦,答案出来了!!!...那么上限就是红色线段的点2的C-D,如果a2>a1,那么上限就是紫色线段的点1的C,整理一下(上限用H表示): 如果a2<a1,H=C-D=C+a2-a1; 如果a2>a1,H=C; 把这两个总和一下,用一个式子表示就是...这个式子,不建议推导,知道就好。 我们再接着化简,引用记号: ? 代入到上式中去,终极问题化简为 ?...=究极问题J(a1,a2) l “究极约束”代入到“究极问题”中去——解“究极问题” 我们首先将“究极约束” ? 代入到“究极问题”中去,有: 究极问题J(a2)= ? 对a2求导,使其为0,得 ?...,还记得吧,SVM的模型,可别忘了)代入进去,有: ? 好了,式子出来了,我们下面代入实际值进行迭代求解。 迭代求值 迭代求值不用多说,给定一个初始值,然后进行迭代更新。

    1.1K120

    评分卡原理及Python实现

    本文目录 评分卡原理 评分卡Python实现 2.1 根据客户违约概率计算客户得分 2.2 根据分箱WOE和特征系数计算客户得分 一、评分卡原理 根据逻辑回归原理,客户违约的概率p有如下式子: ?...把θ0、P0、PDO代入评分公式得: ? ①-②得: ? 即 ? 最终解得: ? 将③代入①得: ? 即 ? 假设θ0=0.001时,P0=600,PDO=40。...二、评分卡Python实现 从评分卡原理的分析中知,得到客户的最终得分有两个计算公式: ? 或 ? 如果已经通过逻辑回归的训练得到客户的违约概率,且只想得到客户的最终得分。...可把违约概率P代入第一个式子即可以得到客户得分。...至此,逻辑回归的原理和代码阐述完毕,感兴趣的同学可以自己根据公式,写出对应的Python代码。

    1.2K30

    模逆——拓展欧几里得 - wuuconixs blog

    背景 在准备用python实现AES的时候,遇到了求伽罗华域下一个多项式的逆的问题。我发现,我不光把域的知识忘光了,别说多项式的逆了,我连如何用python实现求一个整数的逆都不知道。...这里写一下我理解的推导出两个式子之间关系的过程。 我们仔细观察手动推出的中间式子,去掉那些因为替换变量产生的中间式子,可以得到以下一些重要的式子。...第二个式子得解为(x2,y2)(x_2,y_2)(x2​,y2​),代入等式。...by_1 = bx_2 + (a\%b)y_2ax1​+by1​=bx2​+(a%b)y2​ 将a%ba\%ba%b等价转化为a−(a//b)∗ba - (a //b) * ba−(a//b)∗b,再代入...代码实现 这里给出百度百科的exgcd的python代码实现。

    48320

    SMO 算法求解 SVM 拉格朗日系数

    代入消元 我们现在已经得到了下一轮迭代之后得到的新的 α_2 的取值范围,接下来要做的就是像梯度下降一样,求解出使得损失函数最小的 α_1 和 α_2的值,由于 α_1+α_2 的值已经确定,所以我们求解出其中一个即可...我们令α_1y_1+α_2y_2=ξ,那么我们可以代入得到 α_1=y_1(ξ−α_2y_2) 我们把这个式子代入原式,得到的式子当中可以消去 α_1,这样我们得到的就是只包含 α_2 的式子。...right)-y_{i}=\sum_{j=1}^{m} \alpha_{j} y_{j} K_{i, j}+b-y_{i} 这里的 E_i 表示的是第 i 个样本真实值与预测值之间的差,我们把上面两个式子代入原式...,化简可以得到: 接下来就是对这个式子进行求导求极值,就是高中数学的内容了。...最后,我们把 α_2 代入式子求解 α_1。 这样我们就同时优化了一对 α ,SMO算法其实就是重复使用上面的优化方法不停地选择两个参数进行优化,直到达到迭代次数,或者是不能再带来新的提升为止。

    94920

    机器学习入门 9-3 逻辑回归损失函数的梯度

    a 推 导 损 失 函 数 的 梯 度 在上一小节中,我们详细推导出了逻辑回归的损失函数,在最后提到了逻辑回归的损失函数并没有数学解析解(不能通过公式代入样本和标签直接求出最终的θ),只能使用诸如梯度下降法这种迭代求解的方式来找到使得损失函数...▲求解log(σ(t))关于t的导数 由于Sigmoid函数以及导数都是已知的,可以直接代入上面的式子中: ? ▲log(σ(t))关于t的导数 对于上面的结果进一步整理: ?...▲对-(1 / 1- σ(t))进行化简 将上面化简后的结果代入log(1 - σ(t))导数的部分: ?...▲log(1 - σ(t))的导数 有了前面的这些准备,接下来可以直接求蓝色部分式子对θj的导数: ? ▲蓝色部分式子对θj求导 ?...至此我们成功的将红色部分和蓝色部分的式子关于θj的导数求出来了: ? ▲红色部分和蓝色部分式子对θj的导数 将上面的结果进一步化简: ?

    2K21

    求最大最小值,最少要进行多少次比较? | 经典面试题

    分治法的时间复杂度分析: 当只有2个元素时,只需要1次计算就能知道最大,最小值 当有n个元素时, (1)递归左半区; (2)递归右半区; (3)再进行两次计算; f(2)=1;【式子...A】 f(n)=2*f(n/2)+2;【式子B】 求解递归式子,得到: f(n)=1.5n-2; 画外音,证明过程如下: 【式子B】不断展开能得到: f(n)=2*f(n/2)+2;【式子1】 f(n/...2)=2*f(n/4)+2;【式子2】 f(n/4)=2*f(n/8)+2;【式子3】 ... f(n/2^(m-1))=2*f(2^m)+2;【式子m】 通过这m个式子的不断代入,得到: f(n)=(...2^m)*f(n/2^m)+2^(m+1)-2;【式子C】 由于f(2)=1【式子A】; 即【式子C】中n/2^m=2时,f(n/2^m)=f(2)=1; 此时n=2^(m+1),代入式子C】 即f(

    83310

    这样一步一步推导支持向量机,谁还看不懂?

    为了更好地理解,先对w向量的第一个分量w1求偏导,和w1无关的分量全部消除,式子立即化简为如下: ? 这些只涉及到最简单的求导公式,求出偏导: ?...3 化简L 接下来,将得到2个关系式代入到L中,化简L. 为了更好理解,仍然采用更直观地表达方式,将向量完全展开, ? 将上面关系式代入到L之前,我们先展开这个式子, ?...上面这个式子就是基本的多项式求和,w1的平方进一步浓缩下: ? 至此,w1的平法化简完毕,再整合所有其他w分量并求和,如下,整个推导过程依然相清晰,如下: ? ? ?...再写成浓缩式子: ? 至此,代入w后化简中的第一项已经完毕。 再化简第二块: ? 对上式展开,并利用条件: ? ,化简如下: ? 代入w满足的等式 ? 后, ? 提取出公因子后变为如下: ?

    76720

    机器学习入门 11-2 SVM背后的最优化问题

    下面就可以将上面n维空间中点到直线的距离公式的知识点代入SVM算法的思路中。...的样本点代入直线方程之后都是大于等于0的。...仔细看上面的这个式子,对于这个式子来说,w是一个n维向量,但是w的模是一个数,与此同时d也是一个数。...▲将分母融合到分子变换的两个不等式 此时: 如果样本yi = 1的时候就将这个样本xi代入不等式大于等于1的式子中; 如果样本yi = -1的时候就将这个样本xi代入不等式小于等于-1的式子中; 换句话说在我们图中的上下两根直线的直线方程分别是上面两个不等式等于...▲d的表达式 上面式子中的x是某一个支撑向量,通过之前的推导可以看出代入支撑向量,直线方程要么等于1要么等于-1。

    2.1K72

    【分类战车SVM】第六话:SMO算法(像smoke一样简单!)

    我有一双神奇的解题小手,不断的化简——代入——化简——代入,不断的迭代——搜索——迭代——搜索,咦,答案出来了!!! 本集大纲: 1.回顾 2.处理奇葩值 3.SMO算法 ---- 1....那么上限就是红色线段的点2的C-D,如果a2>a1,那么上限就是紫色线段的点1的C,整理一下(上限用H表示): 如果a2<a1,H=C-D=C+a2-a1; 如果a2>a1,H=C; 把这两个总和一下,用一个式子表示就是...这个式子,不建议推导,知道就好。 我们再接着化简,引用记号: ? 代入到上式中去,终极问题化简为 ?...=究极问题J(a1,a2) l “究极约束”代入到“究极问题”中去——解“究极问题” 我们首先将“究极约束” ? 代入到“究极问题”中去,有: 究极问题J(a2)= ? 对a2求导,使其为0,得 ?...,还记得吧,SVM的模型,可别忘了)代入进去,有: ? 好了,式子出来了,我们下面代入实际值进行迭代求解。 迭代求值 迭代求值不用多说,给定一个初始值,然后进行迭代更新。

    1.4K60
    领券