黄广斌教授——“国际人工智能领域”的专家级人物!“超限学习机”的提出者!现为“全创网”创始合伙人之一!

黄广斌,1969年生,是国际人工智能领域的专家级人物。提出了著名的 Extreme Learning Machines (简称ELM,超限学习机)理论和体系。他被Thomson Reuters 评为“Highly Cited Researcher(高被引用研究者)”(工程类和计算机科学类)以及“The World's Most Influential Scientific Minds(世界最有影响力的科学精英)”。

黄广斌教授已经被南洋理工大学授予了全职终身教授的头衔(在新加坡南洋理工大学每年只有1-2%的教师提升为正教授)。(南洋理工大学英国QS世界大学排名11位,亚洲排名第一位,工程学院全球排名第四位)。

他是2016年新加坡总统科学奖被提名人。他也是世界三大出版集团之一Elsevier的数据管理顾问委员会顾问。

中国工业和信息化部中国大数据产业生态联盟主任专家委员。

黄广斌教授两篇文章被Google Scholar列为“经过时间验证的经典文章-Top 10人工智能”工作的Top 2和Top 7。

黄广斌教授的研究方向包括:大数据处理分析,视频分析,汽车辅助驾驶,脑机交互,人机交互,图像处理,机器学习理论和技术。该人工智能领域为全球第二(微软第一)人工智能领域论文引用率全球第二(微软第一)。

超限学习机

黄广斌教授在IAIS 2016大会上提出的超限学习机(ELM)的基本问题,即面对如此多的神经网络结构,我们是不是真的也需要如此多的不同的对应神经网络算法,并从图像处理方面将ELM与深度学习、生物学习和计算机作了深入比较。

什么是超限学习机?

超限学习机(Exteme learning machine),针对的问题是单隐层的前馈神经网络。单隐层的前馈人工神经网络,特别之处在于训练权值的算法,在单隐层的前馈神经网络中,输入层到隐藏层的权值根据某种分布随机赋予,当我们有了输入层到隐藏层的权值之后,可以根据最小二乘法得到隐藏层到输出层的权值,这就是超限学习机的训练模型过程。部分超限学习机理论已经得到了生物学的直接验证,也许能解释为什么生物脑总体有序又局部无序。

超限学习机的特点?

每超限学习机不需要调整隐藏层节点,给定任何连续目标函数或可分类目标,只要前馈神经的隐层节点是非线性阶段连续的,神经网络无需调整隐层节点就能任意逼近目标连续函数或对分类目标加以分类。输入层到隐藏层的权重和偏差可以随机设定,隐层激励函数具有无限可微的特征即可。而输出层权重用回归矩阵的伪逆矩阵和训练输出值来确定。 超限学习机不仅解决了神经网络存在性问题,还给出了学习方法。

超限学习机的优势?

在2016年的IAIS 2016图像声音算法专场上,黄广斌教授作为嘉宾发表了题为《超限学习机和图像处理》的演讲。与传统的应用误差梯度下降学习策略的反向传输神经网络和支持向量机相比,超限学习机的优点在于它的速度可以达到其几百到几万倍并且泛化精度高,而且不会陷入局部最小值,可以采用多种激励函数,只要满足无限可微即可。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180604G15CU200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券