追本溯源:5种受生物启发的人工智能方法

【导读】1月15日,机器学习研究人员Luke James(简介见文末)发布一篇博文,介绍了5种受到生物启发的人工智能方法,包括人工神经网络(人脑神经元)、遗传算法(DNA染色体)、集群算法(蚁群优化和粒子群优化)、强化学习(条件反射)、人工免疫系统(生物免疫),括号中表示受到的生物启发,这些算法分别属于搜索或预测模型。作者将大自然中的启发与流行的AI方法对应起来,从一个独特的角度讨论这五种AI算法的内部原理,非常值得一读。

5 Ways mother nature inspires artificial intelligence

▌引言

在人工智能的世界里,有许多东西的存在是因为它在当今技术领域中存在应用场景。人类不仅花费数十年时间研究并完善数学计算以使这些奇妙复杂的学习算法发挥作用,而且在此期间,我们对人工智能的研究比对自己物种的研究更深入促使下一代智能产生。 “大自然”及其所包含的一切,都将其根植于人工智能的运作之中。

David Attenborough的野生动物纪录片非常令人震撼。他们对地球上许多物种的行为和特性进行了详细的研究,他们让我们了解他们如何融入自然生态系统,并共同努力,使我们的星球蓬勃发展——使之成为地球。 我不是David Attenborough,但我仍然会带你参加我自己的野生动物纪录片。 这些明星生物就是那些受大自然启发的人工智能算法。 但首先,我需要向您介绍两个算法的概念。 搜索/寻路和预测建模(Search/Pathfinding and Predictive Modelling)。

▌搜索算法

搜索算法本质上是程序,旨在找到一个目标的最佳/最短的路线。 例如,旅行推销员问题是一个典型的搜索优化问题,您可以获得城市和城市之间的距离列表。 在每个城市访问一次的前提下,您必须搜索旅行推销员的最短路线以尽量减少旅行时间和开支(并确保您最终返回原城市)。这个问题有个实际用途是送货车。 想象一下,伦敦有100个人在网上订购,所有的包裹都装进一个面包车。 快递员必须计算最有效的路线(在距离和花费的时间之间寻找一个平衡点),以便从仓库(最终返回仓库)交付这些包裹,并确保公司浪费的时间和金钱最少。

▌预测模型算法

今天,预测建模受到大量的炒作。全世界的数据科学家们都在舒适的办公大楼屋顶上呼喊“神经网络”口号。像谷歌这样的公司正试图用这些复杂的小的“人造大脑”的不同变体来解决各种问题。 基本上预测建模使用统计数据来预测结果。 你经常听到数据科学家试图解决两种预测建模问题:回归和分类。 回归是发现两组变量之间相关性,分类是确定数据集属于不同类别的概率的过程。

▌5种生物启发的学习算法

1. 人工神经网络

前馈神经网络——最基本的神经网络

算法类型:预测模型

生物启发:认知脑功能(神经元)

用例:情感分析,图像识别/检测,语言纠错,机器人

我们从最常见的人工智能(AI)算法开始。 神经网络是机器学习的一个子类。 它们的设计模仿大脑中神经元的功能,神经元与轴突和树突相互作用,以便通过系统传递信息,通过一系列“层”产生预测输出。 每个层都提供了一个额外的数据表示层,并允许对最复杂的问题进行建模。

神经网络可能是使用最广泛的机器学习算法,是目前数据科学和机器学习中最热门的领域。这一概念最初在1958年提出被称为“感知机”,后来被Geoffrey Hinton改进,并被谷歌和Facebook等公司所推广。神经网络可以用来解决各种各样的问题,包括自然语言处理和视觉识别。这种有监督的学习算法可以解决回归和分类问题,被用于智能手机和智能家庭设备等消费产品中。

2. 遗传算法

在遗传算法中复制个体

算法类型:搜索/寻路

生物启发:适者生存/进化(细胞繁殖)

用例:数据挖掘/分析,机器人,制造/设计,流程优化

为了解决搜索问题,遗传算法在一系列连续的迭代中采用类似进化的方法——“适者生存”。 每一代都含有一些模仿我们在DNA中看到的染色体的字符串。 人群中的每个人都代表搜索空间内的一个点,因此每个人都是可能的候选解决方案。 为了提高解决方案的数量,我们把每个人都进行一个进化的过程:

人群中的每个人都争夺资源和配偶;

在每场比赛中最成功的个体将比那些表现不佳的人产生更多的个体;

更多“理想”候选人的基因在整个群体中传播,因此这些优秀的个体往往会产生潜力更大的后代。

3. 群集/集体智慧

蚁群优化的例子——一种集体智能算法。

算法类型:搜索/寻路

生物启发:蚂蚁聚居地/鱼群/鸟群

用例:机器人,视频游戏AI,制造,路线规划

蚁群优化和粒子群优化是符合“集体智慧”概念的两个最常见的算法。 在基本层面上,所讨论的算法都使用多个工作代理。 每个工作代理都表现出非常基本的行为,集体(作为一个整体)共同工作,用更复杂,更紧急的行为来解决问题。

蚁群优化(ACO)与粒子群优化(PSO)有很大不同。 两者都旨在实现紧急行为,但用两种不同的方式去做。 像真实蚁群一样,ACO利用信息素的“气味”将个人代理引导到最短的路径上。 最初,在问题空间中初始化一个随机信息素。 个人代理人将开始遍历搜索空间,随着信息素气味的消失而丢弃。 在每一步中,信息素将以一个确定的速率衰减。 单个代理人根据他们前方的信息素气味的强度做出决定,以遍历搜索空间。 气味在特定方向越强,越有可能以这种方式行进。 最著名的解决方案最终将是信息素气味最强的方案。

PSO看起来更多的是整体方向。 一些单个代理被初始化,他们开始方向随机的进行初始化。 在每个时间段,每个代理都需要决定是否改变方向。 决策将基于最好的解决方案(称为pbest / global best)的方向、最佳邻居(当地最佳)的方向以及当前的行进方向。 行进的新方向通常是考虑所有值的一个很好的“妥协”。

4. 强化学习

增强学习环境中的代理行为

算法类型:预测模型

生物启发:传统条件反射

用例:视频游戏,自动车辆控制,生产线软件,金融系统

随着心理学和经典条件反射研究的进展,强化学习(RL)支持为代理的有利行动提供积极的数值响应。 学习强化学习的概念往往比流行的经典条件反射例子更容易,如Pavlov’s Dogs。 这是一个在1890年进行的研究,俄罗斯心理学家Ivan Pavlov正在研究狗的流涎情况。 一个很好的文章可以解释这件事(https://www.simplypsychology.org/pavlov.html)。 从本质上讲,如果一个RL代理采取了一个好的行动(一个完成任务所需的步骤),它被给予数字奖励。 代理将学习使用一个策略——如最大限度地提高每个单独步骤的奖励。 将原始输入应用到算法中,可以使代理开发自己的问题意识,以及如何以最有效的方式解决问题。

RL算法与其他机器学习技术(如神经网络)组合是很常见的。 这通常被称为深度强化学习。 当RL算法作出特定的决定时,神经网络经常被用来估计给予RL代理的奖励。 谷歌的Deep Mind在这个领域已经取得了很大的进步,采用深度Q学习方法来解决更为普遍的问题(例如一种算法能够发挥整个Atari游戏库的能力,在游戏“Go”中能独立击败世界冠军,而无需其他帮助,他们现在正在采用这种方法来处理更复杂的游戏,比如“星际争霸II”。

Q学习是一种无模型的强化学习算法。它可以用来寻找任何有限马尔可夫决策过程的最优的动作选择策略。在程序初始化时,每个动作的Q值对值是由开发人员定义和更新由RL算法在每一时间步。每个动作值对应的Q值由开发者定义,并在每个时间步由RL算法更新。 以下图像是更新Q动作值对的等式示例。

Q学习值更新公式

5. 人工免疫系统

人工免疫系统组件

算法类型:预测模型

生物启发:免疫系统

用例:安全软件,自主导航系统,调度系统,故障检测软件

免疫系统是通过产生免疫应答来保护机体免受物质和病原体的系统。 人工免疫系统(AIS)是自适应系统,受理论免疫学和观察免疫功能的启发,并应用它解决实际问题。 AIS是生物启发计算和自然计算的子领域,与机器学习和人工智能相关。 有多种AIS相关的算法:

克隆选择

树突状细胞

否定选择

人工免疫识别

像生物免疫系统一样,AIS能够将系统内的所有细胞分类为“自我”或“非自我”细胞。 一个分布式的情报工作队被用来对所有的细胞采取行动。 参与免疫的两种最重要的细胞类型:B细胞和T细胞(白细胞)。 T细胞有三种类型, 一种用来激活B细胞,一种是结合并破坏外来入侵者,另一种是抑制自身免疫问题。 B细胞负责产生与抗原结合的特异性蛋白质的抗体 ——毒性/外来物质。 人工免疫系统通常通过监视入侵检测来抵御网络攻击,并且常常集成到企业级软件中。与本文中提到的其他算法不同,关于这方面的免费在线学习资料非常有限。

这里我给出了5个受大自然激发的技术的例子。 还有更多的生物启发式算法会影响我们的AI系统,所以对于我遗漏的经验和知识,您可以在评论中分享自己的见解。

▌作者简介:

我是一名健身运动员和软件工程师,对健美和机器学习充满热情。 我在自己的博客和网站讨论这些话题,还有其他话题。 我在我的Github中提供链接,所以你可以在我的社交媒体帐户(Facebook,Instagram,Twitter等),看到我正在进行的项目。

http://lukealexanderjames.com/

-END-

专 · 知

人工智能领域主题知识资料查看获取:【专知荟萃】人工智能领域26个主题知识资料全集(入门/进阶/论文/综述/视频/专家等)

同时欢迎各位用户进行专知投稿,详情请点击

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180116G00MHK00?refer=cp_1026

扫码关注云+社区