曲线拟合的几种解释

曲线拟合是一个经典的问题,将其数学化后是:已知训练数据x\bf{x}和对应的目标值t\bf{t}。通过构建参数为w\bf{w}的模型,当新的xx出现,对应的tt是多少。

本文将从误差和概率的角度探讨如何解决曲线拟合的问题,具体地,将阐述以下概念:

  • 误差函数
  • 正则化
  • 最大似然估计(MLE)
  • 最大后验估计(MAP)
  • 贝叶斯

误差角度

误差函数

直观的解决思路是最小化训练误差,公式如下:

minw12∑n=1N{y(xn,w)−tn}2

\min_w \frac{1}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2

正则化

上面的方法会遇到过拟合的问题,所以可以加上正则化的参数避免过拟合,改进后的公式如下:

minw12∑n=1N{y(xn,w)−tn}2+λ2∥w∥2

\min_w \frac{1}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2+\frac{\lambda}{2} \Vert \textbf{w} \Vert ^2

概率角度

高斯分布假设

假设每个点都服从均值不一样方差一样的高斯分布,均值为y(xn,w) y(x_n,\textbf{w}),方差为β−1\beta^{-1}。那么,每个点的的概率分布是:

p(t|x,w,β)=N(y(xn,w),β−1)

p(t|x,\textbf{w},\beta) =N(y(x_n,\textbf{w}),\beta^{-1})

最大似然估计

为了求出上面的概率分布,首先要求出模型w\textbf{w}的值,假设每个点之间相互独立,那么似然函数为:

p(t|x,w,β)=∏n=1NN(tn|y(xn,w),β−1)

p(\textbf{t}|\textbf{x},\textbf{w},\beta) =\prod_{n=1}^N N(t_n|y(x_n,\textbf{w}),\beta^{-1})

对上式取log,并最大化,得到:

maxwlnp(t|x,w,β)=−β2∑n=1N{y(xn,w)−tn}2+N2lnβ−N2ln(2π)

\max_{\textbf{w}} \ln p(\textbf{t}|\textbf{x},\textbf{w},\beta) = -\frac{\beta}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2 + \frac{N}{2}\ln\beta-\frac{N}{2} \ln (2\pi)

计算w\textbf{w}只和上式右边的第一项有关,可以看到,最大似然的结果等同于误差函数的结果,也就是MLE等同于sum squared error function。

最大后验估计

根据MLE,我们可以得到模型w\textbf{w}的参数,并且可以计算出p(t|x,w,β)p(\textbf{t}|\textbf{x},\textbf{w},\beta)似然函数进而求得对应点的值,可是这样同样存在过拟合的问题,为了解决这个问题,我们引入了先验估计,并结合似然函数计算出了后验估计。

假设w\textbf{w}的先验估计如下:

p(w|α)=N(w|0,α−1I)

p(\textbf{w} | \alpha) = N(\textbf{w}|\textbf{0},\alpha^{-1}\textbf{I})

根据后验估计等于似然函数乘以先验估计,也就是

p(w|x,t,α,β)∝$p(t|x,w,β)p(w|α)

p(\textbf{w}|\textbf{x},\textbf{t},\alpha,\beta) \propto $p(\textbf{t}|\textbf{x},\textbf{w},\beta) p(\textbf{w} | \alpha)

同样适用最大似然估计的方法,不过这里不是作用在似然函数上,而是作用在后验分布上,我们得到:

minwβ2∑n=1N{y(xn,w)−tn}2+α2∥w∥2

\min_w \frac{\beta}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2+\frac{\alpha}{2} \Vert \textbf{w} \Vert ^2

因此可以看到:

  • 最大化似然函数等同于最小化SSE。
  • 最大化后验分布等同于最小化SSE加上regulation。

贝叶斯

所谓贝叶斯,就是多次重复使用概率中的和规则和积规则。

为了方便,下文中认为α,β\alpha,\beta是固定的,在公式中省略了这两者,公式如下:

p(t|x,x,t)=∫p(t|x,w)p(w|x,t)dw

p(t|x,\textbf{x,t}) =\int p(t|x,\textbf{w}) p(\textbf{w}|\textbf{x},\textbf{t}) \textbf{dw}

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏云时之间

深度学习与TensorFlow:实现卷积神经网络

1914
来自专栏marsggbo

Andrew Ng机器学习课程笔记--week7(SVM)

本周主要学习SVM 一、 内容概要 Large Margin Classification Optimization Objective(优化Objectiv...

1968
来自专栏AlgorithmDog的专栏

EM算法原理和应用

EM算法是带隐变量概率模型的推断算法。今天我们介绍 EM 算法的原理和应用。我们先介绍推导出 EM 算法的一般方法,再介绍另一种 EM 算法推导方法...

27810
来自专栏AI研习社

监督学习最常见的五种算法,你知道几个?

在机器学习中,无监督学习(Unsupervised learning)就是聚类,事先不知道样本的类别,通过某种办法,把相似的样本放在一起归位一类;而监督型学习(...

37011
来自专栏深度学习思考者

卷积神经网络源码——最终输出部分的理解

  针对matlab版本的卷积神经网络的最终分类器(输出部分)的理解:   部分代码: '''cnnff''' net.fv = []; %...

1876
来自专栏智能算法

Matlab编程之——卷积神经网络CNN代码解析

deepLearnToolbox-master是一个深度学习matlab包,里面含有很多机器学习算法,如卷积神经网络CNN,深度信念网络DBN,自动编码Auto...

5858
来自专栏深度学习与计算机视觉

理解交叉熵作为损失函数在神经网络中的作用

交叉熵的作用 通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最...

3929
来自专栏书山有路勤为径

矩阵与状态转移方程

均值现在是一个向量,每个维度对应一个元素,方差变为协方差。协方差定义的是高斯函数的分散

1106
来自专栏张洁的专栏

线性回归的高斯假设

在线性回归问题中,我们定义了损失函数,但是为什么用最小二乘(而不是三次方等)作为损失函数? 我们来尝试解决一个完整的线性回归问题。

3730
来自专栏Soul Joy Hub

《深度学习Ng》课程学习笔记04week1——卷积神经网络

http://blog.csdn.net/u011239443/article/details/79057016 1.1 计算机视觉 计算机视觉领域的问题 图片...

2764

扫码关注云+社区