曲线拟合的几种解释

曲线拟合是一个经典的问题,将其数学化后是:已知训练数据x\bf{x}和对应的目标值t\bf{t}。通过构建参数为w\bf{w}的模型,当新的xx出现,对应的tt是多少。

本文将从误差和概率的角度探讨如何解决曲线拟合的问题,具体地,将阐述以下概念:

  • 误差函数
  • 正则化
  • 最大似然估计(MLE)
  • 最大后验估计(MAP)
  • 贝叶斯

误差角度

误差函数

直观的解决思路是最小化训练误差,公式如下:

minw12∑n=1N{y(xn,w)−tn}2

\min_w \frac{1}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2

正则化

上面的方法会遇到过拟合的问题,所以可以加上正则化的参数避免过拟合,改进后的公式如下:

minw12∑n=1N{y(xn,w)−tn}2+λ2∥w∥2

\min_w \frac{1}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2+\frac{\lambda}{2} \Vert \textbf{w} \Vert ^2

概率角度

高斯分布假设

假设每个点都服从均值不一样方差一样的高斯分布,均值为y(xn,w) y(x_n,\textbf{w}),方差为β−1\beta^{-1}。那么,每个点的的概率分布是:

p(t|x,w,β)=N(y(xn,w),β−1)

p(t|x,\textbf{w},\beta) =N(y(x_n,\textbf{w}),\beta^{-1})

最大似然估计

为了求出上面的概率分布,首先要求出模型w\textbf{w}的值,假设每个点之间相互独立,那么似然函数为:

p(t|x,w,β)=∏n=1NN(tn|y(xn,w),β−1)

p(\textbf{t}|\textbf{x},\textbf{w},\beta) =\prod_{n=1}^N N(t_n|y(x_n,\textbf{w}),\beta^{-1})

对上式取log,并最大化,得到:

maxwlnp(t|x,w,β)=−β2∑n=1N{y(xn,w)−tn}2+N2lnβ−N2ln(2π)

\max_{\textbf{w}} \ln p(\textbf{t}|\textbf{x},\textbf{w},\beta) = -\frac{\beta}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2 + \frac{N}{2}\ln\beta-\frac{N}{2} \ln (2\pi)

计算w\textbf{w}只和上式右边的第一项有关,可以看到,最大似然的结果等同于误差函数的结果,也就是MLE等同于sum squared error function。

最大后验估计

根据MLE,我们可以得到模型w\textbf{w}的参数,并且可以计算出p(t|x,w,β)p(\textbf{t}|\textbf{x},\textbf{w},\beta)似然函数进而求得对应点的值,可是这样同样存在过拟合的问题,为了解决这个问题,我们引入了先验估计,并结合似然函数计算出了后验估计。

假设w\textbf{w}的先验估计如下:

p(w|α)=N(w|0,α−1I)

p(\textbf{w} | \alpha) = N(\textbf{w}|\textbf{0},\alpha^{-1}\textbf{I})

根据后验估计等于似然函数乘以先验估计,也就是

p(w|x,t,α,β)∝$p(t|x,w,β)p(w|α)

p(\textbf{w}|\textbf{x},\textbf{t},\alpha,\beta) \propto $p(\textbf{t}|\textbf{x},\textbf{w},\beta) p(\textbf{w} | \alpha)

同样适用最大似然估计的方法,不过这里不是作用在似然函数上,而是作用在后验分布上,我们得到:

minwβ2∑n=1N{y(xn,w)−tn}2+α2∥w∥2

\min_w \frac{\beta}{2}\sum_{n=1}^N\{ y(x_n,\textbf{w}) -t_n\}^2+\frac{\alpha}{2} \Vert \textbf{w} \Vert ^2

因此可以看到:

  • 最大化似然函数等同于最小化SSE。
  • 最大化后验分布等同于最小化SSE加上regulation。

贝叶斯

所谓贝叶斯,就是多次重复使用概率中的和规则和积规则。

为了方便,下文中认为α,β\alpha,\beta是固定的,在公式中省略了这两者,公式如下:

p(t|x,x,t)=∫p(t|x,w)p(w|x,t)dw

p(t|x,\textbf{x,t}) =\int p(t|x,\textbf{w}) p(\textbf{w}|\textbf{x},\textbf{t}) \textbf{dw}

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏编程

Python数据分析-数据探索下

主题 数据探索 接着上一节的内容~ 二、数据特征分析 5. 相关性分析 (1)直接描述散点图 从散点图可以比较直观地看书两个变量的相关性。(一般分为完全正...

3509
来自专栏AI派

一份非常全面的机器学习分类与回归算法的评估指标汇总

读完机器学习算法常识之后,你已经知道了什么是欠拟合和过拟合、偏差和方差以及贝叶斯误差。在这篇给大家介绍一些机器学习中离线评估模型性能的一些指标。

945
来自专栏大数据挖掘DT机器学习

判别模型、生成模型与朴素贝叶斯方法

1、判别模型与生成模型 回归模型其实是判别模型,也就是根据特征值来求结果的概率。形式化表示为 ? ,在参数 ? 确定的情况下,求解条件概率 ? 。通俗的解...

3396
来自专栏企鹅号快讯

无监督学习神经网络——自编码

自编码是一种无监督学习的神经网络,主要应用在特征提取,对象识别,降维等。自编码器将神经网络的隐含层看成是一个编码器和解码器,输入数据经过隐含层的编码和解码,到达...

3307
来自专栏人工智能头条

如何选择合适的损失函数,请看......

1011
来自专栏jeremy的技术点滴

机器学习课程_笔记06

2704
来自专栏机器学习算法与Python学习

机器学习(28)【降维】之sklearn中PCA库讲解与实战

关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第一 【Python】:排名第三 【算法】:排名第四 前言 在(机器学习(27)【降维】之...

4876
来自专栏机器学习算法与Python学习

高斯混合聚类(GMM)及代码实现

通过学习概率密度函数的Gaussian Mixture Model (GMM) 与 k-means 类似,不过 GMM 除了用在 clustering 上之外,...

4065
来自专栏大数据挖掘DT机器学习

R语言实现主成分和因子分析

主成分分析(PCA)是一种数据降维技巧,它能将大量相关变量转化为一组很少的不相关变量,这些无关变量称为主成分。 探索性因子分析(EFA)是一系列用来发现一组变量...

3074
来自专栏null的专栏

简单易学的机器学习算法——Softmax Regression

一、Softmax Regression简介         Softmax Regression是Logistic回归的推广,Logistic回归是处理二分类...

28910

扫码关注云+社区