前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >宽度学习与深度学习中的时空转化问题

宽度学习与深度学习中的时空转化问题

作者头像
全栈程序员站长
发布2022-08-31 17:49:11
5120
发布2022-08-31 17:49:11
举报

大家好,又见面了,我是你们的朋友全栈君。

ž在自然界中运动是绝对的,静止是相对的。这句话也说明了深度学习过去、现在、未来。由于我发现山东大学有个组和澳门大学陈俊龙团队的宽度学习、极限学习等。 目前由于神经网络是黑盒研究、所以很多人利用反卷积和卷积可视化来解释这种微分和积分的编程,由于冗余和稀疏特性使用微积分或者差分求导数和偏导是必然。 宽度学习文章和代码研究地址:http://www.broadlearning.ai 在深度学习上目前比较流行的:DBN深度信任网络、DBM(深度玻耳兹曼机)、CNN(卷积神经网络)、RNN(循环神经网络)、自编器。 SLFN(单层前馈神经网络)应用在回归和分类,由 Yoh-Han Pao 教授在 1990 年代提出的随机向量函数链接神经网络(random vector functional link neural network,RVFLNN)提供了不同的学习方法。 特征提取和降维 实现效率突出的特征提取常用方法包括,变量排序(variable ranking),特征子集选择(feature subset selection),惩罚最小二乘法(penalized least squares),随机特征提取方法,包括非自适应随机投影(non-adaptive random projections)和随机森林(random forest)以及基于卷积的输入映射等等。

为了证明 BLS 的有效性,我们将与现有「主流」方法的分类能力进行比较,包括堆叠自动编码器(Stacked Auto Encoders,SAE),另一个版本的堆叠自动编码器(another version of stacked autoencoder,SDA),深度信念网络(Deep Belief Networks,DBN),基于多层感知器的方法(Multilayer Perceptron based methods,MLP)深玻尔兹曼机(Deep Boltzmann Machines,DBM),两种的基于 ELM 的多层结构,分别表示为 MLELM 和 HELM。在我们的实验中,网络由 10×10 特征节点和 1×11000 增强节点构成。相关的权重均为随机生成。

BLS 的测试精度以及其他所提到的深度算法测试精度如表格 1 所示。虽然 98.74% 不是最优秀的(事实上,深度学习的表现仍然比 SAE 和 MLP 好),BLS 在服务器上的训练时间被压缩到了 29.6968 秒。此外,应该注意的是,MNIST 数据特征的数量减少到 100。这个结果符合学者在大数据学习中的直觉,也就是现实应用中的数据信息通常是冗余的。 核心问题:深度学习和宽度学习的智能计算是在时空转换基础上进行的。 在操作系统中内存管理是多级页表来节省空间(这个就是深度的来源) 神经网络与深度学习入门教程中解释是:类比逻辑门微分编程计算技术做出来详细的Analogy的Logic Circuits和neural network,C++与C最大的区别在于bool计算和泛类编程。 同时为什么使用一种语言而不是其他语言,不是其他语言不行,而是python语言本身数据类型更加擅长与向量计算,C、C++、Java中封装的数组。向量容易升维成张量。张量流可以理解维矩阵,矩阵容易进行各种计算可以看看网易云上MIT的线性代数课程和台湾清华大学《线性代数》赵启超教授的课程就能体会到了,同时也是现代人工智能技术的基础。 目前的人工智能技术水平真心很一般不要听任何吹水,(可以上网看看:人工智能“农民工”中数据标记员)能很好的反应这一个事实。 辩证的态度看问题,目前只是深度学习比较流行和在某些领域比较擅长这种计算模型,在MIT和谷歌的数学和计算机科学这本书中有相关理论描述。从工业届考虑我们要根据不同的问题特征来选用不同方法,这种方法论就是学派。我们学东西最后如果能清晰的感受和利用学派的方向,那么我们在认知和实践上升华会到达一定程度。 机器学习有五大学派,我个人理解深度学习有三大学派。学习学习告诉我们要想更好:永无止境的接受新知识!让我们站在巨人肩上进步。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/143623.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年5月2,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档