前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【机器学习】神经网络概念篇

【机器学习】神经网络概念篇

作者头像
陆勤_数据人网
发布于 2018-02-27 06:49:24
发布于 2018-02-27 06:49:24
6010
举报

大数据年代,各种机器学习算法的应用也日渐广泛。虽然在实际生产中只要调用各种成熟的算法库即可解决机器学习问题,但我们也需要对这些算法有概念上的了解。小编在这里就逐渐为大家带来各种经典算法的快速入门,希望大家有所收获。

悠久历史

神经网络是一个非常古老的传说。

自从40年代初心理学家 W.W.Mcculloch 和梳理逻辑家 W.Pitts 提出 M-P 模型以来,大家对其研究可谓是一波三折,跌宕起伏。神经网络不断地从「看好」到「被打击,到「被冷落」,再到「被看好」中循环。

以下列举了一些主要的神经网络发展的里程碑:

  1. 1957年,Rosenblatt 第一次建立神经网络感知模型。
  2. 1960年,B.Windrow 提出自适应线性单元,可用于自适应滤波,预测等。
  3. 1969年,M.Minsky 证明单层,甚至多层的神经网络感知能力有限,单层网络甚至不能解决抑或问题。
  4. 1982年,J.J.Hopfield 提出 hopfield 网络模型,首次引入网络能量。
  5. 1984年,Hinton 等人将模拟退火算法引入到神经网络中,提出了 Boltzmann 机网络模型。
  6. 1986年,D.E.Rumelhart 和 J.LMcclelland 提出了著名的 Backword-Propagation 算法。
  7. 1987年,R.Hecht - Nielsen 提出了对向传播神经网。
  8. 1992年,Holland 用模拟生物进化的方式提出了遗传算法, 用来求解复杂优化问题。
  9. 1995年,Mitra 结合模糊逻辑理论,概率论建立了模糊神经网络。
  10. 2006年,Hinton 等人提出深度学习,从此揭开了全新的一个篇章。

在学术界,神经网络作为一种以仿生模型开始建立的智能算法,一直有着较大的争议。

首先,不像 SVM 等经典算法,其本源上并没有一个清晰的数学模型;其次自从 1969 年 M.Minsky 提出单层甚至多层神经网络的感知能力有限后,人们对其有效性产生了很大的怀疑;再者,虽然神经网络模型比较容易理解,但是对其的训练却是 NP-Hard 问题,在实际应用中缺少了很多可行性。

当然,单纯地说神经网络只是人们对大脑探索的一个美好的梦不免过于偏颇;事实上,在解决很多复杂问题时神经网络一直有着很好的应用。

复杂问题

那么什么是复杂问题呢?

相对计算机而言,高难度的数值计算,方程求解是相对容易的问题;而连 1 岁小朋友都可以轻易做到的识别图片中的某一个物体,对传统计算机算法而言却是十分难。

对于那些「感性」,「模糊」,「定义不清」等不需要唯一精确结论的问题,绝大多数传统的算法都无能为力。

神经网络往往这在里大放异彩。

这种「复杂」的问题如果非要用数学来表示的话,那往往需要将问题所关心的对象投射到一个个非常高维度的向量之中(比如一张 n*m 大小的彩色图片,会被投射到 n*m 维度的向量,而每个像素的颜色则表示成每维向量的值),然后「模糊」地找出这些向量之间的关系或者是向量的特征。

对于经典的基于「图灵机」的算法而言,在如此庞大的问题空间中搜索,需要耗费的时间难以想象;而大脑这个大自然创造的「超大规模并行」神经网络,却往往可以在瞬间得到答案。

应用场景

说了一堆玄乎的道理,下面小编就来列举一些情况,帮助判断何时应当使用神经网络,何时有应该考虑其他方法。

首先我们先来看一下不该使用的情况:

  • 对于通过公式,步骤,状态机等描述的问题,应该考虑使用传统方法解决;
  • 对于问题答案都是很有限的问题,应该考虑通过查表解决;
  • 对于能通过专有硬件来解决的问题(比如真随机数生成等);
  • 你尝试要解决的问题会不断地向你无法预料的方向发展「进化」,因为某个类型的神经网络一般只擅长解决一类问题,不断发展的问题无法通过单一神经网络解决;
  • 对指定问题你如果不能十分容易地产生大量的输入输出数据,那神经网络将很难被训练成;
  • 对于那些要求精确解答的问题;

接着,我们再来看一些神经网络也许比较适合的场景:

  • 手中有着大量的被标记过的数据,但是你却对这些数据及其标记的逻辑关系无从下手;
  • 问题内部的约束或条件非常非常复杂(难以用常规方法表示),但你有能通过人类的直觉感到问题应该容易解决;
  • 对问题的答案没有精确要求,而且可以随着时间的改变做小范围的波动。

具体的应用场景来看,神经网络包括:分类,类聚,回归,异常识别,关联挖掘,特征学习等.

那么,那么机器人是否可以用一个神经网络来实现呢(模拟大脑)?

小编的答案是:你想多了。

当前的神经网络还无法单独撑起整个机器人的复杂功能。绝大多数的技能都是由人类对场景模式预编程的结果。包括你熟悉的 Siri,Cotana 等。当然,机器人在处理具体事务的时候,必然会借助神经网络来解决一些模式识别问题。

神经网络与 SVM

这是一个非常有争议的话题,在历史中已经被无数人折腾过了。小编在这里仅仅列一些已被绝大多数人接受的观点。

神经网络和 SVM 在智能算法发展史中代表着两个派别的泰斗级选手。现在绝大多数市面上所能看到的图像识别,行为预测,主题分类等领域的应用,无不是他们俩的身影。

二者在模型上的差异也是显而易见的:神经网络以仿生学起家,模型并非天然图灵机,而 SVM 则一出生便有着精确的数学模型。

正因如此,传统神经网络对比于 SVM 的一个最大的缺点便是它往往不易得到全局的最优解,而且在很多情况下其容易被不精确的训练数据给迷惑,也就是 Overfitting。其实这一点并不难理解,人类大脑也是非常容易被局部最优所误导。

SVM 天生不具备这些问题,而且由于其模型也更加适合图灵机表示,所以大多数情况下,SVM 的计算速度会快于神经网络。但 SVM 也有一些缺陷,比如 SVM 一般只适合做二元分类(元分类的 SVM 复杂度将会大大提高),而且我们必须人为地根据应用场景选择特定的 Kernel 函数。这点上说,神经网络并不需要人为其对数据经行分类降维选 Kernel 等操作,实为更加智能一些。

当然,也有研究指出,其实神经网络和 SVM 是互相等价的。比如,线性(Kernel) SVM 和单层的神经网络是等价的,而多层的神经网络又和 SVM 森林是等价的。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2015-12-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据科学与人工智能 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
神经网络主要类型及其应用
目前深度学习中的神经网络种类繁多,用途各异。由于这个分支在指数增长,跟踪神经网络的不同拓扑有助于更深刻的理解。在本文中,我们将展示神经网络中最常用的拓扑结构。
McGL
2020/09/02
2.3K0
【机器学习】神经网络技术篇
在上一篇文章里,小编给大家概括地介绍了下神经网络的历史和应用。这次,小编要给大家细细讲解下神经网络的组成,和几种常见神经网络的模型及其适用领域。 基本组成 顾名思义,神经网络算法有两大最主要的组成部分:神经元和神经元之间的网络连接。 我们知道,人类大脑的思考是依靠多个神经元之间神经冲动的传导来实现的。每个神经元可以接受多个神经元输入的神经冲动,并转化为自己的神经冲动并传播给多个其它的神经元。 在模拟神经网络的过程中,我们也可以建立以下的数学模型: 我们将每个神经元看成是一个具有多个输入的函数 G(x), x
陆勤_数据人网
2018/02/27
6190
【机器学习】神经网络技术篇
深度学习与神经网络:浅谈人工神经网络跌宕起伏七十年
人工神经网络在过去的七十年的时间里数次起起伏伏,几十年间人们一直在追求机器的智能化,在近几年的研究中,随着数据量的增加和深度学习神经网络算法的研究和进步,表明了深度学习是很有效的,但是仍有其局限性.而我们了解历史,会让我们有更多的思考和启发.
云时之间
2018/04/10
1.1K6
深度学习与神经网络:浅谈人工神经网络跌宕起伏七十年
“神经网络”的逆袭:图解80年AI斗争史
华山派有“剑宗”和“气宗”,相互斗了几十年。人工智能界也有“山头”,AI两大派系的斗争早在第一台电子计算机问世前就已经开始了。
量子位
2018/12/18
7650
“神经网络”的逆袭:图解80年AI斗争史
神经网络图灵机
摘要 本文通过引入一个使用注意力程序进行交互的外部存储器(external memory)来增强神经网络的能力。新系统可以与图灵机或者冯·诺依曼体系相类比,但每个组成部分都是可微的,可以使用梯度下降进行高效训练。初步的结果显示神经网络图灵机能够从输入和输出样本中推理出(infer)简单的算法,如复制、排序和回忆。 1. 简介 计算机程序在执行计算任务的过程中(Von Neumann, 1945)使用了三个基本机制:初等运算(如算术操作),逻辑控制流(分支循环)和可读写的存储器。虽然在建模复杂数据方面取得了
昱良
2018/04/08
8370
神经网络图灵机
神经网络简史
追根溯源,神经网络诞生于人类对于人脑和智能的追问。而这个追问经历了旷远蒙昧的精神至上学说,直到 19 世纪 20 年代。
用户9624935
2022/04/02
1.5K0
神经网络简史
人工神经网络简介(人工智能神经网络技术)
本文主要对人工神经网络基础进行了描述,主要包括人工神经网络的概念、发展、特点、结构、模型。
全栈程序员站长
2022/07/30
4.2K0
人工神经网络简介(人工智能神经网络技术)
人工神经网络简介
概要:人工神经网络简称神经网络,是基于生物学中神经网络的基本原理。 一、人工神经网络的概念 人工神经网络(Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型。该模型以并行分布的处理能力、高容错性、智能化和自学习等能力为特征,将信息的加工和存储结合在一起,以其独特的知识表示方式和智能化的自适应学习能力,引起各学科领域的
陆勤_数据人网
2018/02/28
1.7K0
人工神经网络简介
神经网络和深度学习
假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为: I =>S1=>S2=>…..=>Sn => O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。信息论中有个“信息逐层丢失”的说法(信息处理不等式),设处理a信息得到b,再对b处理得到c,那么可以证明:a和c的互信息不会超过a和b的互信息。这表明信息处理不会增加信息,大部分处理会丢失信息。当然了,如果丢掉的是没用的信息那多好啊),保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。现在回到我们的主题Deep Learning,我们需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设我们设计了一个系统S(有n层),我们通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,…, Sn。
大龄老码农-昊然
2021/05/14
5790
神经网络和深度学习
机器学习-波澜壮阔40年
人工智能的再次兴起让机器学习(Machine Learning)这个名词进入了公众的视野,它成为当前解决很多人工智能问题的核心基石。
SIGAI学习与实践平台
2018/08/07
4040
机器学习-波澜壮阔40年
【机器学习】神经网络浅讲:从神经元到深度学习(一)
神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。
abs_zero
2021/04/13
1K0
【机器学习】神经网络浅讲:从神经元到深度学习(一)
《机器学习》学习笔记(五)——神经网络
神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。 神经网络中最基本的成分是神经元模型,即上述定义中的“简单单元”。如果某神经元的电位超过一个阈值,那么它就会被激活,即兴奋起来,向其他神经元发送化学物质。
荣仔_最靓的仔
2021/02/02
7620
《机器学习》学习笔记(五)——神经网络
图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!
1996年的8月19日至23日,芬兰的瓦萨举行了由芬兰人工智能协会和瓦萨大学组织的芬兰人工智能会议。
新智元
2023/01/09
7260
图灵机就是深度学习最热循环神经网络RNN?1996年论文就已证明!
浅谈神经网络发展史:从莫克罗-彼特氏神经模型到深层神经网络
本文主要讲述了神经网络的发展史,从最早的神经模型到现代深度学习,以及深度学习在各大领域中的应用,包括计算机视觉、自然语言处理等。同时,作者指出深度学习已经成为了AI的新宠,目前的问题和挑战包括如何训练出更深层次的神经网络,以及如何解决数据样本过少的问题。
chaibubble
2018/01/02
3.7K0
浅谈神经网络发展史:从莫克罗-彼特氏神经模型到深层神经网络
重磅! | 神经网络浅讲:从神经元到深度学习
神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向–深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。 本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。 神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。 那么机器学习中的神经网络是如何实现
用户1332428
2018/03/08
2.1K0
重磅! | 神经网络浅讲:从神经元到深度学习
从M-P模型到神经网络
对于神经元的研究由来已久,1904年生物学家就已经知晓了神经元的组成结构。在人脑中有数以亿计的神经元,每个神经元最主要的部分就是树突和轴突,一个神经元通常有多个树突但是只有一个轴突。树突接收来自外界的电信号,电信号经过细胞体的处理后经由轴突发送出去。一个神经元通常有多个树突但是只有一个轴突,树突与其他神经元的轴突相连,神经元间通过这样的方式传递和处理信号,并控制着肌肉的收缩。神经元的结构如下图所示:
Here_SDUT
2022/09/19
1.2K0
从M-P模型到神经网络
神经网络 vs. 支持向量机
深度学习(DL)已成为商业智能项目中的通用名词。它属于更广泛的人工智能研究领域,也是机器学习算法的一部分。深度学习可以是监督的、半监督的和非监督的。
liuxuewen
2018/10/11
3.1K0
神经网络 vs. 支持向量机
AI学术交流——“人工智能”和“神经网络学习”
图灵对于人工智能的发展有诸多贡献,提出了一种用于判定机器是否具有智能的试验方法,即图灵试验,每年都有试验的比赛。此外,图灵提出的著名的图灵机模型为现代计算机的逻辑工作方式奠定了基础。
网络豆
2023/10/17
3320
AI学术交流——“人工智能”和“神经网络学习”
机器学习之神经网络基础
目前,深度学习(Deep Learning,简称DL)在算法领域可谓是大红大紫,现在不只是互联网、人工智能,生活中的各大领域都能反映出深度学习引领的巨大变革。要学习深度学习,那么首先要熟悉神经网络(Neural Networks,简称NN)的一些基本概念。当然,这里所说的神经网络不是生物学的神经网络,我们将其称之为人工神经网络(Artificial Neural Networks,简称ANN)貌似更为合理。神经网络最早是人工智能领域的一种算法或者说是模型,目前神经网络已经发展成为一类多学科交叉的学科领域,它也随着深度学习取得的进展重新受到重视和推崇。
Python数据科学
2018/08/06
5560
机器学习之神经网络基础
BP神经网络-ANN发展
本文介绍了神经网络的发展过程,从单层感知器到多层感知器,再到BP神经网络,最后介绍了Hopfield神经网络。
企鹅号小编
2018/01/03
1.8K0
BP神经网络-ANN发展
相关推荐
神经网络主要类型及其应用
更多 >
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文