首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

想了解“云 AI”究竟怎么“玩儿”,还要看这里、看这里!

四海八荒的兄弟姐妹们大家好,你们可爱的小编又来给美腻动人,风流倜傥的你带来各种你感兴趣的话题和新闻啦嘿嘿,欢迎大家来到,轻松快乐任你来逛的“生活情报站” 如此背景下,怎样在“认知、算法、数据”三重作用下,降低AI落地的门槛? 如何帮助企业降低研发成本、加速方案迭代并完美实现AI 产品化? 或许这些统统都可以归结为“云知道” 这不,就在前不久刚刚结束的UCan下午茶深圳站活动中,多位技术大咖针对以上问题进行了深入探讨,涉及AI 与公有云平台、云计算助力AI快速完成底层架构搭建等诸多关于“云 AI”的技术方向,干货满满。

沙龙现场座无虚席 现场超百位开发者热情参与了交流与互动,尤其对AI平台、UCloud安全屋产品、NLP 技术以及AutoML等十分关注。此外,这些探讨也将为云计算与AI相关领域的从业者们提供借鉴与新思路,并十分值得广大开发者们认真学习与总结! AI公有云平台实践

如今AI技术在适应不同场景时所呈现的算法形式多种多样,为了实现更多场景的兼容性,高效的平台建设对广大开发者来说必不可少。 UCloud LabU深度学习开发工程师范融在“AI公有云平台实践”的主题分享中表示,在整个研发周期中,面对源于AI 的诸多问题,无论是企业还是开发者自然都要选择可以兼容更多深度学习算法以及框架,并保证存储、网络性能优势解决方案。 可见,一个优质的平台恰好可以达到灵活的横向扩展能力以及对业务规模的支持,另外在弹性、容灾简单方便的代码迁移等方面更是表现出色,如此看来AI平台建设的重大意义需要被广泛认同。

此外,范融在演讲中还详细介绍了UCloud关于AI 基础平台架构的很多技术干货。 “聚焦整个AI 平台架构,中间占位比较多的部分主要承担了错误处理、负载均衡等功能。 底层部分我们兼容了CPU 算力加速的设置,在存储方面设计了一个统一的接入层,可以达到怎样的效果?无论以何种形式的存储进入该平台,对于开发者们的访问都会像本地访问一样简单快捷。”她进一步说。 据了解,为了方便用户更好使用平台功能,网络上开发了两种交互界面,例如对于希望采用自动化完成与本地流程接入的用户,可以使用docker支持,方便完成远程自动连接。

需要强调的是,在基础架构中,为了可以提供兼容性更好的运行环境,UCloud平台采用了封装、预装、自由、可重用、兼容性等多种技术方式。 “所谓的封装性,就是在运行具体任务时,并不用担心会对自身的安装环境产生干扰;预装呢?顾名思义,就是我们针对用户经常使用的深度学习框架以及科学计算包做了预装,这样在本地使用的话直接下载就可以,非常方便;另外一点就是自由,虽然已经安装了大部分科技计算包的用户可以做到开箱自用,但不排除有的用户涉及到的领域比较冷门,这样一来完全可以依照需要自行下载,正常运行相关安装包完全没有问题;还有一点是可重用,这在开源镜像数据库领域表现明显,可以做到为开发者们大量节省时间等。 ”范融补充道。

当然整体架构在灵活接入数据源、弹性资源调节等方面也有显著优势。 通常在本地进行计算时,绝大多数人会配置外挂盘,将所有的训练数据存储在磁盘上。但对于云上的数据呢?肯定是优先放在云存储中,这个过程中是否需要云存储修改程序,将本地存储转化为远端? 对此,范融解释道,平台会将远端的存储链接数据接入层,这样就像访问自己的文件一样。数据接入层除了达到缓存的目的之外,还可以做到诸如带宽的数据控制、访问数据的权限控制等,以便可以做到每个用户访问的都是属于自己的数据,不会出现误访问的情况,有效保证数据安全。在数据源的灵活接入方面,UCloud未来还会不断扩展数据类型,以及增加云盘等不同的访问形式。

如今都选择使用云上资源而不是本地资源,主要由于本地资源扩容比较麻烦,还伴随一定的成本支出,但是云上又如何做到弹性扩容呢? 范融对开发者们说:“从部署架构的角度考虑,每一个AI的训练集群我们都会根据SET来管理,用户不管启动训练还是任务推理,都可以选择适合自己算力的类型。”

这个设置的好处在于用户使用实际训练任务时,可以根据自己的训练任务需求来寻求不同的资源,达成资源的合理分配;另外一点,由于整体集群是平台运营的,不管训练任务还是推理任务都会产生自动检测,肯定不会影响业务的继续开展。 架构的事儿讲完了,关于利用AI 平台加速训练又是怎样的呢? 以图像分类算法为例,CIfar数据集的优势在于统一了32×32的标准大小。 范融强调,图像分类用到的算法是最简单的CNN,有两个重要的算子。一个就是卷积算子,卷积计算的作用其实就是把图像中特征的部分扫描出来,一般来说会用一个卷积核。 可以看到,卷积核是3×3的,这样一个3×3的卷积核代表一个特征,是一条曲线或者一条直线。在这个过程进行一个扫描,做计算,就会形成一个新图形,这样的计算扫描部分是将符合卷积核相符数值的结果放到第一层。 但会意识到一个缺点,每次卷积之后会有一个边缘被扫描掉,所以如果在原图上加一个边框的话就避免了这样的问题。

除了比较重要的卷积算法之外,另一个就是池化计算。 “当我们用很多卷积核做计算的时候,就会发现原来一图片会变成多张图片,数据量会非常庞大,而且十分耗费算力。试想一下,是否可以将卷积出来的数据做一个综合整理呢?综合的方法一般有平均或者取最大值的算法,通过池化这个数据就会带来缩小的效果然后进入下一个环节。”她说。

每次卷积之后,一次卷积后会完成激活,激活之后再进行池化计算,会把特征做连接,最后做分类处理。 据了解,范融所在的团队目前已经推出AI在线服务、AI训练服务两个产品。 其中AI在线服务PaaS平台在2016-2017年可信云大会上获得了AI行业云服务奖;AI训练服务全程支持了2017年AI Challenger大赛的顺利开展,在该领域表现十分出色。 云计算助力人工智能快速搭建底层资源

“尽管AI 很火爆,但对于AI系统建设,大家并不是太清晰。 从我们自身出发,通常着重考虑三个方面:首先是兼容性,这一点在图像类以及语音类表现突出,AI 算法与其兼容主要包括切合性;另外会十分注重平台扩展性,因为这涉及到训练数据成倍增长的情况;此外就是分布式化的特点,实践证明如果采用线下单机模式会十分影响效率。 ” UCloud互联网事业部解决方案架构师徐强表示。

如果说AI系统建设是第一步的话,那确保AI“踏实”落地究竟有哪些高效地解决思路呢? 他认为,从UCloud自身出发,首先会涉及到一个数据共享的平台。 再高深的算法都需要大量数据的支持,怎样获取数据实在是个问题。 如今是否有一种模式可以最大能力整合数据用于训练呢?安全屋或许会起到一定作用。 谈及数据安全性,“安全屋底层都是基于公有云平台,更重要的一点,我们采用的加密技术是基于区块链的不可篡改性,并同时增加了审计机制来保障安全。 ”进一步补充道。

此外,在环境分离、底层资源共享以及后期扩展性等方面,他强调,安全屋就是在保证数据所有权不变的情况下完成最大可能性的数据流通。 例如环境分离,可以带来本地与云上环境体验一致的情况。“具体来说,首先我们会对Docker进行分装,随后选择自己的框架再打包,然后上传到AI系统中,上传之后就可以直接调用。 整个框架的中间部分是计算资源的共享,底层是数据的存储,包括本地以及接入层的数据来源等。”徐强表示。

另外,十分重要的一个技术点就是容器 容器的设计可以保证在云上运用整体算法的过程中不会与软件产生冲突,更不会造成数据泄露;提供比较多的基础镜像可以降低开发者的研发时间,在调用上也会更加便捷;更自由的是,用户可以在系统中分装出自己想要的算法、软件等,自由“定制”后上传即可使用。

提及可扩展性,他总结道,所谓纵向扩展可以被提供升降级的选择,不会影响整体系统的在线升级;如果选择分布式的横向扩展,包括存储资源在内,可以叠加,分布式的可用性不会受到影响。 目前该领域UCloud推出了两大产品,第一个就是分布式AI训练平台。 在训练平台的作用下,将代码通过Docker方式上传,可以做到直接在控制台种选择相应的算力资源,还可以依托系统去实践。 徐强提出,在这个过程中,无论是状态还是误差情况都可以清晰明了很直观,此外还可以通过API的方式直接上传,这对自建AI 系统的成本和压力都降低很多。

具体来说,自建“版本”可能会造成资源利用不充分、采购时间较长、运维方面压力山大等诸多问题。 另外一个就是分布式AI 在线服务平台。“我们会在平台后端提供APP接口,CPU、GPU方面会提供上万台计算的节点,所有的业务监控都是可视化的,高可用性很强大,例如不同的可用区、不同的集群推广等。”他说。 说到代表性的案例,徐强提及了2017年AI Challenger大赛。 赛事规模自不用多说,就连科研数据也是最大数量级的,据了解有1000万的中英文翻译数据,30万的图像数据。所以由于数据量庞大,主办方选择UCloud作为GPU提供方,对此提供了有关AI 的整体解决方案。

“在底层提供了强大的算力资源、中间布置了AI在线服务以及AI训练服务、然后就是安全屋。将庞大的数据放入安全屋中,然后根据需要分发给不同的选手;选手同时将自己的算法上传到安全屋中,基于分发的数据做训练,只要计算出模型就可以将数据导入,十分安全。”徐强描述道。 总结来说,UCloud一方面提供了底层的计算方法以及环境的自动部署,方便直接上传到AI 系统;另一方面在收费方面也表现的更加人性化,按需收费只在执行过程中,其他时间不涉及费用问题。

精彩分享仍在继续,关于底层资源搭建的探讨暂时告一段落后,达观数据联合创始人张健又为与会开发者带来了主题为“文本智能处理的深度学习技术”的演讲。 文本智能处理的深度学习技术

在有关NLP的知识以及实践的分享中,他提到,其实电脑理解的文本与人理解的文本会有一些共同之处,通常也是从三个等级来体会。但NLP实践中最重要的还是解决如何将机器学习或者深度学习高效应用在文本处理中。

对此张健表示,深度学习的基础结构其实就是一个基本的神经网络,可以理解为是最基本神经源结构,会接受S1、S2输出,实现很简单分类的功能,只是需要满足一个很复杂的场景需求罢了。 此外深度学习无法规避基本结构的问题,也就是RNN和LSTM。“我们在理解语言的时候,其实是一个信息流,也是一个序列信息,会像S0、S1、S2。 如果讲一个字,当前时刻就可以把之前时刻的这种字词信息收纳进来并作为前项的输入,再与当前的字词结合后输出;但是LSTM除了具备这样一个结构,还增加了一个优点,就是人们在讲话的过程中,不可避免的是上下文环境中有些字词重要,而有些则不那么重要,LSTM会对之前的信息进行有选择通过或者丢弃。”他强调。

关于CNN,也就是最早运用于图像处理领域,简单来说就是识别“猫”或者“狗”,而不是会分析出猫身下的草坪有多绿。 在处理文本时也会参考使用类似技术对图片进行切片来保存重要信息,最后完成全连接实现分类。 总结来看,深度学习用于文本挖掘的确显示了很多优点,例如可以使用大量无监督的数据提高能力;端到端的过程让文本输入、任务训练再到输出的环节并不需要做很多处理,更重要的是能够克服传统模型的缺点。 但这种方式并不是完全没有缺点的,例如在小数据量的前提下效果不一定好,需要根据场景严格挑选适合的模型;另外调参工作量有时不亚于特征工程,甚至会限制部分应用。 此外,在现场分享时,张健还为与会开发者们提供了实践经验的小贴士来参考。 首先在业务场景层面,用户需要尽可能理解数据,分析问题本质并选择合适的模型;在使用的初始阶段,可以选择传统机器学习模型作为尝试,通过不断深化针对数据的理解来解决相关问题;最后就是还需要在不断的实践中迭代经验解决问题。 AutoML人工智能自动化模型设计与进化算法实现

当前,AutoML是人工智能发展的一个重要方向,受到Google,Facebook等诸多公司的重视。据了解,AutoML主要可以帮助解决的问题在于数据特征提取和扩增、机器学习和深度学习模型生成以及模型超参调优等,通过序贯模型优化、迁移学习、强化学习、元学习、进化算法、基于连续假设的梯度求导方法等来实现。

在“AutoML人工智能自动化模型设计与进化算法实现”的分享中,钱广锐表示,在当前的实际场景中的确存在很多情况是单一模型并不能完全适应的,复合型模型在一些场景中特别需要。人工智能模型的设计是一个复杂的工作,要设计的小、准、快更是复杂。 “所有的框架以及算法是我们从大概年初刚刚开始实践的,这样一个人工智能模型自动设计平台被称为达尔文ML。 真正的希望就是能够实践产品化的工作,用户只要数据输入,不需要做任何之前的预设假定就可以完成模型建设。”他说。

此外探智立方从数据准备、模型设计、生产对接为达尔文系统提供了整套“配置”,例如在工业制造方面,整个实践过程中有5万张照片,采取200×200的分类,钱广锐将其放到新平台中去,准确率可以达到75%左右,其中并没有做复杂建模处理的工作,这个案例可以发现,达尔文设计出来的模型特别小,准确率特别高。

无论是人工智能发展还是现有的一些场景中,很多场景模型的设计不只是在云端,由于达尔文设计出的模型比较小,钱广锐也希望未来可以在手机端快速识别票据等。除了帮助企业应用落地,如何能在各个场景,例如智能制造、摄象头等统统实现也是很重要的目标。 云计算、人工智能,从技术角度看涉及计算、存储、网络等范围甚广、学习难度大,但却可以发挥重要作用。 “云 AI”从产业角度看可以显著提升传统企业的运营效率,助力数字化升级;引领全新的商业模式,为各类企业赢得快速发展的机遇…… 感谢可爱善良的各位阅读文章,如果各位觉得小编的文章为你带来了欢笑,让你和同学,同事尽情八卦了半天,就给小编一个鼓励吧,动动你的小手点个赞或者评论一下哦!如果觉得小编说的不对,也在下方疯狂吐槽吧,小编会努力改正的。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181119A0JB8K00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券