前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习从零开始系列连载(1)——基本概念

机器学习从零开始系列连载(1)——基本概念

作者头像
lujohn3li
发布2020-03-03 18:47:28
2750
发布2020-03-03 18:47:28
举报

本周内容:

1. 一些基本概念

1.1 生成式模型与判别式模型

1.2 参数学习与非参学习

1.2.1 参数学习

1.2.2 非参学习

1.3 监督学习、非监督学习与强化学习

1.3.1 监督学习

1.3.2 非监督学习

1.3.3 强化学习

2. 建模方法回顾

2.0 偏差与方差

2.1 线性回归-Linear Regression

2.1.1 模型原理

2.1.2 损失函数

2.2 支持向量机-Support Vector Machine

2.2.1 模型原理

2.2.2 损失函数

2.2.3 核方法

2.3 逻辑回归-Logistic Regression

2.3.1 模型原理

2.3.2 损失函数

2.4 Bagging and Boosting框架

2.4.1 Bagging框架

2.4.2 Boosting框架

2.5 Additive Tree 模型

2.5.1 Random Forests

2.5.2 AdaBoost with trees

2.5.3 Gradient Boosting Decision Tree

2.5.4 简单的例子

2.6 人工神经网络-Neural Network

2.6.1 神经元

2.6.2 神经网络的常用结构

2.6.3 一个简单的神经网络例子

01

生成式模型与判别式模型

从概率分布的角度看待模型。给个例子感觉一下: 如果我想知道一个人A说的是哪个国家的语言,我应该怎么办呢?

生成式模型

我把每个国家的语言都学一遍,这样我就能很容易知道A说的是哪国语言,并且C、D说的是哪国的我也可以知道,进一步我还能自己讲不同国家语言。

判别式模型

我只需要学习语言之间的差别是什么,学到了这个界限自然就能区分不同语言,我能说出不同语言的区别,但我哦可能不会讲。

如果我有输入数据x,并且想通过标注y去区分不同数据属于哪一类,生成式模型是在学习样本和标注的联合概率分布p(x, y)而判别式模型是在学习条件概率p(x|y)。

生成式模型p(x, y)可以通过贝叶斯公式转化为p(x|y)=p(x, y)/p(x),并用于分类,而联合概率p(x, y)分布也可用于其他目的,比如用来生成样本对(x, y)。

判别式模型的主要任务是找到一个或一系列超平面,利用它(们)划分给定样本x到给定分类y,这也能直白的体现出“判别”模型这个名称。

最后给一个很简单的例子说明一下:

假如我有以下独立同分布的若干样本(x, y),其中x为特征,y∈{0, 1}为标注,(x, y)∈{(2, -1), (2, -1), (3, -1), (3, 1), (3, 1)}

常见生成式模型

Naive Bayes

Gaussians

Mixtures of Gaussians

Mixtures of Experts

Mixtures of Multinomials

HMM

Markov random fields

Sigmoidal belief networks

Bayesian networks

常见判别式模型

Linear regression

Logistic regression

SVM

Perceptron

Traditional Neural networks

Nearest neighbor

Conditional random fields

02

参数学习与非参学习

参数学习

参数学习的特点是:

1、选择某种形式的函数并通过机器学习用一系列固定个数的参数尽可能表征这些数据的某种模式;

2、不管数据量有多大,函数参数的个数是固定的,即参数个数不随着样本量的增大而增加,从关系上说它们相互独立;

3、往往对数据有较强的假设,如分布的假设,空间的假设等。

4、常用参数学习的模型有:

Logistic Regression

Linear Regression

Polynomial regression

Linear Discriminant Analysis

Perceptron

Naive Bayes

Simple Neural Networks

使用线性核的SVM

Mixture models

K-means

Hidden Markov models

Factor analysis / pPCA / PMF

非参学习

注意不要被名字误导,非参不等于无参

1、数据决定了函数形式,函数参数个数不固定;

2、随着数据量的增加,参数个数一般也会随之增长;

3、对数据本身做较少的先验假设。

4、一些常用的非参学习模型:

k-Nearest Neighbors

Decision Trees like CART and C4.5

使用非线性核的SVM

Gradient Boosted Decision Trees

Gaussian processes for regression

Dirichlet process mixtures

infinite HMMs

infinite latent factor models

03

监督学习、非监督学习与强化学习

监督学习

对于每一个样本都会提供一个明确的学习目标(标注),有自变量也有因变量,学习机接收样本进行学习并通过对该样本预测后的结果和事先给定的目标比较后修正学习过程,这里的每一个样本都是标注好的,所以好处是歧义较低,坏处是万一有一定量样本标错了或者没标会对最终应用效果影响较大。通常监督学习过程如下:

非监督学习

对于每个样本不提供明确的学习目标(标注),有自变量但无因变量,学习机接收样本后会按事先指定的必要参数,依据某种相似度衡量方式自动学习样本内部的分布模式,好处是没有过多先验假设,能够体现数据内在模式并应用,坏处是有“盲目”性,并会混在噪声数据。比如:常用LDA做主题聚类,但如果使用场景不是降维而是想得到可输出的主题词,基本上没有人肉的干预无法直接使用(虽然整体上看感觉可能不错)。

强化学习

我认为强化学习是最接近人类学习过程的,很多情况下我们无法直接表达什么是正确的什么是错误的(比如:我正在爬山,迈了一大步,又迈了一小步,那么没法儿说我迈了大步正确还是错误),但是可以通过惩罚不好的结果或者奖励好的结果来强化学习的效果(我迈了个大步,导致没有站稳,那么对迈大步做惩罚,然后接下来我会迈小一点)。

所以强化学习是一个序列的决策过程,学习机的学习目标是通过在给定状态下选择某种动作,寻找合适动作的策略序列使得它可以获得某种最优结果的过程。

强化学习的几个要素,体现其序列、交互性:

环境(environment):

强化学习所处的上下文;

学习器(agent):

与环境的交互并学习的对象,

具有主动性;

动作(action):

处于环境下的可行动作集合;

反馈(feedback):

对动作的回报或惩罚;

策略(policy):

学习到的策略链。

经典的训练狗的实验就是一种强化学习的过程:



本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-02-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习爱好者社区 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档