科个普啦—机器学习(下)

在机器学习(上)里谈到了机器是如何学习的,当前主流的学习方法是监督式学习,即用大量带标签的数据训练机器使得机器知道如何解决问题。

那么训练就得有效果,指导机器往好的方向学习,那么如何指导机器的学习方向?主流的方法用的是梯度下降的方式。梯度就是方向的意思,下降是往误差小的方向去(即好的方向)

机器从抽象意义上看的由许多参数构成的数学模型,数学模型可以认为就是一个函数。函数有输入和输出,为了让这个函数解决我们的问题,我们就得优化他,而优化则需要衡量他的输出和正确答案之间的误差,这个误差越小则说明我们的对问题解决的越好。

这里我们整理一下逻辑。

机器学习->优化模型->最小误差

知道了和正确之间的差距,就要缩小差距,缩小的方法就是对误差做的梯度下降。

既然机器在抽象意义上是个函数,我们用最简单的函数(只有一个参数)来说明问题,在二维平面把它的图画出来是这样的。

横坐标是函数的参数,纵坐标是误差。

请看横坐标函数的参数决定了误差,我们要让误差最小,则要找到对应的这个参数。

找的方法就是梯度下降。

步骤:

1. 刚开始时,我们的函数初始化后会随机在一个位置

2. 梯度下降就是求这个位置的梯度(方向)

2. 然后往误差小的方向挪动横坐标,从而得到新的位置。

不断重复2、3步这个过程,让函数的误差最小,或者只要小到满足的你预期即可。我们也就得到了这个最能解决问题的数学模型了,即这个就是训练好的机器了。

原文发布于微信公众号 - 林欣哲(gh_aba6caba3ac7)

原文发表时间:2017-10-12

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏人工智能

Effective Deep Memory Networks for Relation Extraction

Citation:Zeng, D., Liu, K., Chen, Y., & Zhao, J. (2015). Distant Supervision for...

22850
来自专栏YoungGy

机器学习的损失函数

机器学习三方面 损失函数 交叉熵逻辑回归 平方损失函数最小二乘 Hinge损失函数SVM 指数损失函数AdaBoost 对比与总结 机器学习三方面 机器学习问题...

24870
来自专栏企鹅号快讯

OpenAI 发布稀疏计算内核,更宽更深的网络,一样的计算开销

原标题:OpenAI 发布稀疏计算内核,更宽更深的网络,一样的计算开销 ? 雷锋网 AI 科技评论按:OpenAI 的研究人员们近日发布了一个高度优化的 GPU...

22580
来自专栏生信小驿站

监督式和非监督式机器学习算法

监督式学习指的是你拥有一个输入变量和一个输出变量,使用某种算法去学习从输入到输出的映射函数

9120
来自专栏AI深度学习求索

传统特征:SIFT算子的原理

SIFT,一种检测局部特征算法,该算法通过求一幅图中的特征点(及其有关scale 和 orientation 的描述子得到特征并进行图像特征点匹配,SIFT特征...

11420
来自专栏算法channel

BAR面试题6:LR和SVM的联系与区别

接下来,每天一道BAT面试题陪伴你,日积月累,相信大家会从中学到一些东西。最后希望你们顺利拿到理想的OFFER.

44520
来自专栏生信小驿站

过拟合和欠拟合

监督式机器学习通常理解为逼近一个目标函数,此函数映射输入变量(X)到输出变量(Y).Y=f(X)。从训练数据中学习目标函数的过程中,我们必须考虑的问题是模型在预...

9520
来自专栏数据科学与人工智能

代价函数

代价函数,度量【假设集】的准确性。 机器学习中常用的代价函数,总结如下: 1 误差平方和函数 ? 说明:yi 是模型预测值,oi是样本实际值 2 交叉熵函数...

38560
来自专栏AlgorithmDog的专栏

朴素贝叶斯分类器本质上是线性分类器

朴素贝叶斯分类器是一种应用贝叶斯定理的分类器。线性分类器是通过特征的线性组合来做出分类决定的分类器。本质上,朴素贝叶斯分类器是一种线性分类器。 朴...

32250
来自专栏磐创AI技术团队的专栏

卷积神经网络概述

在 2012 年的 ILSVRC 比赛中 Hinton 的学生 Alex Krizhevsky 使用深度卷积神经网络模型 AlexNet 以显著的优势赢得了比...

36740

扫码关注云+社区

领取腾讯云代金券