【文】王艺 关注人工智能
投稿请联系wangyi@csdn.net或公众号后台留言
10月15日下午,在北京兆维大厦,由CSDN社区主办的技术主题月系列之——《深度学习框架的重构与思考》活动成功举办。CSDN邀请了用友畅捷通人工智能负责人张俊林、创业公司大数据总监周步恋、亮风台高级算法研究员史信楚、IBM中国研究院高级研究员薛超共同围绕“深度学习”这个热点话题,分享了深度学习方向创业、 深度学习如何教机器学会阅读理解、 深度学习与AR的结合、 分布式深度学习做监测分析以及优化等议题。近200位开发者利用周末参加了本次活动,现场提问踊跃,嘉宾互动很有深度。
CSDN产品运营姚前担任活动主持人
接着,周步恋为开发者展示了深度学习的国外创业图谱。
并对以下几点进行浅析:
最后,周步恋对深度学习的未来做了如下几点畅想:
提问环节,周步恋针对样本的获取问题回答开发者的提问:
开发者:您刚才说样本的问题,样本搭建国内有没有提供。 周步恋:样本做不同领域样本可能不一样,现在尤其做数据公司把数据视为核心的资产,现在数据开放在国内基本做不到,因为数据是他的资产,很多公司仅仅是抱着数据就能让自己过得很好。 开发者:现在获得数据源非常少,做深度学习样本非常少。 周步恋:所以现在做深度学习还要在大公司,或者某个领域拿到垂直的数据,拿到医疗创业必须拿到现在医院诊疗数据,如果仅仅去想就没法做。
张俊林:深度学习如何教会阅读理解
张俊林首先为开发者分享了他所感兴趣的几个话题:
张俊林此次分享主要围绕着第三点,即阅读理解展开。深度剖析了如下几个方面:
最后,张俊林对深度学习的阅读理解做了总结与展望:
深度学习做机器阅读理解时间也就一年,可以说进展已经很大了,一年时间出了至少几十个模型出来。但是问题在,首先数据集合有问题,现在数据集合有几类,一类要不规模太小,学习神经网络包含这么多参数的模型一定没办法做复杂模型的。第二很多数据是人工合成的。第二个模型单一,根据刚才归纳就是一维、二维、推理模型。第一二维模型需要更深入探索,二维模型就是Attention,实际你还可以有很多探索做,包括匹配函数,包括二维匹配模型都是非深度的,你可以套深度的用一下。 世界知识的引入,对于人真正想理解一篇文章,世界知识一定要,就是人分男人女人,但是机器是不知道的,刚开始为了简化问题把世界知识排除在外,但是随着像人一样达到阅读理解程度必须把世界知识引入到模型里来。推理机制需要完善,说到底核心就是注意力焦点不断转移,还是比较单一,这还需要有新的机制推出来。
史信楚:深度学习与AR的结合
首先,史信楚对亮风台技术及AR/VR技术做了简要的介绍。并着重对AR关键技术的三个部分做了讲解:
薛超:分布式深度学习做监测分析以及优化
首先,薛超为开发者分析了传统的机器学习与深度学习的不同、分类器、贝叶斯网络、决策树等概念。
简单介绍后,进入巡查哦本次分享的核心问题:分布式如何作为分布式的拓展,并主要介绍在SPARK怎么进行分布式拓展。
这是著名的SPARKNet,如果大家对SPARK稍微知道一点就能明白,很多工作跑着,跟MASTER通信,每次叠加结束之后把数据传给它,master做简单平均分后,发回来再做下一次。这瓶颈是非常大的,因为传输量非常大,而且单点问题比较压力,master压力也非常严重。这种情况下分布式计算跟一台机计算效果如果设不好,还不如一台机计算。所以伯克利做SPARKNet就把传统做了优化,就是别每次都传了,隔一段时间传我一次,但是如果隔一段时间传就是同步和异步的折中,完全异步可能不收敛了,在保证这些东西收敛情况下尽量增大传输间隔。这两个公式可以算最后的时间。于是,给出了测试结果,发现想跑成三倍快的效率需要六台机器,隔多长时间通信一次这里也有说明,大概什么情况下效率最好。这个图看到SPARKNet更为平缓了,如果SPARK做深度学习是首选,开发这个人跟做SPARK是一拨人,未来会不会加入SPARK上也是非常期待值得。但是不可避免瓶颈在SPARK是有的,这跟控制通信的。
并介绍了雅虎的CaffeOnSPARK
很多公司深度学习数据在一起,机器学习数据在一起,数据本身就是并行,而不是算法并行的。这是以前的一个问题,雅虎说,以前数据预处理的时候做准备,数据搬到深度学习上去,把模型算好又回来,这里有来回的数据迁移,大规模应用肯定是很大的瓶颈。说能不能想都用Hadoop存这些数,都用它操作深度学习,当然这个想法是非常好的。那你需要在SPARK支持深度学习,你把它看成应用,跟MLLib一样,试图写这样的库。跟刚才的图是完全不一样的,它避开了单点失效的问题,是用MPI分布式方法,通过互相传输通信。当然了有LMA提高通信速度做同步,它也有自己的方法。这种刚出来大家觉得这个想法非常好,这个东西俨然就是趋势,但是后来也是没有搞成,但是思想还是很值得大家借鉴,没有搞成原因主要因为MPI东西不好管理。SPARK虽然种种不是,但是最大好处是容错,SPARK算错之后可以容错,可以回来,可以再算。但是如果MPI管理怎么管是大问题。第二个因为雅虎公司跟谷歌不一样,所以说维护人员也会变得很少,在推荐下面就渐渐落下风。
接下来,薛超向开发者解读了深度学习的趋势:
最后,薛超向研发者介绍了通过实践所涉及的Hyperparameter的选择。
在互动答疑时段,开发者提问火爆,纷纷提出了自己在直播平台技术方面的困惑,现场嘉宾一一给出了解答。下面为问答环节集锦:
抽奖阶段获奖观众
会后观众和讲师交流
CSDN技术主题月是由CSDN社区主办的线下技术交流活动,旨在和国内技术领先的企业共同围绕行业趋势和话题进行解决方案的探讨、分享和交流。在技术开放的氛围下,希望开发者们能够通过CSDN社区平台结识更多技术达人,交流&分享技术观点,并碰撞出精彩火花。