00:00
呃,我是来自英特尔的解决方案架构师,我叫潘建成,然后我主要负责腾讯的业务的,就我支持腾讯去利用英特尔的技术来做更好的产品,给到呃各位最终的用户。那呃,随着现在越来越多的云化,平台化,呃像S啊,虚拟机容器pass啊等等各各种各样的平台抽象完之后,其实对各位开发者或者说用户,最终用户来说,呃,Intel的感知力其实已经呃有点偏弱了,如果大家不直接去使用像CVM啊,虚拟机啊这样一些一些环境的话,可能不会太知道Intel尔在这个呃各种各样的一些场合能做些什么,那其实Intel尔是一个任务细无声的一个角色,呃在支撑着各种各样的业务去呃优化,去利用好这种底层的基础架构的资源,让这种业务运行的更好,运行的更快,更安全。
01:02
对,今天我就呃跟大家分享我们呃,英特尔在云原生方面,呃,就是提供一些优化的能力和加速的性能。呃,其实就像刚刚陈涛老师提到的那个TT口杠C,也是利用到了Intel的一些技术和产品,呃,他把Intel的一个奥腾的产品用在缓存的,呃这个层面上来提高它的性能啊。我们跟腾讯也有很多呃,这种结合的产品,能让大家用腾讯的产品用的更好。今天我会跟大家介绍Intel尔在原生领域所做的一些呃项目的情况,然后我们Intel尔跟腾讯云结合的一些云原生的产品,并且呃简单介绍一下我们最新一代呃自强处理器所能提供一些呃给业务带来的加速的能力。
02:06
那首先在原生的一些,呃,项目这一块呃。第一个是我们针对container低的所做一些呃压缩解压缩的加速,那呃大家在用service的时候,其实它的启动速度是一个衡量呃使用体验的一个比较重要的指标哈。那呃,怎么样来提升提升那个受理的一些业务,呃。这种呃部署或者使用的速度呢,那我们在背后其实也做了很多事情,比如说呃,就像这一页里面提到的,我们针对container第有一个压缩解压缩的加速,那contain第已经用在广泛用在很多呃原生的领域啊,包括Co的环境,呃容器的环境都会用的越来越多,然后呃它在里面拉取镜像的时候,会有呃一个解压的动作,那在这个解压的动作里面呢,它可以支持几种的解压方式。
03:13
呃,如果底层的硬件是基于Intel的CPU,并且它支持IA-L这个指令级的话,那我们呃这个container低就可以调用到IA-L它里面一个叫IGG的呃子集来做压缩和解压缩的加速,那通过这种解压缩呃压缩解压缩的能力呢,它就可以大大的降低它呃这个镜像所呃需要的一些部署时间。那我们就可以大大的加快这个容器启动进来,就呃,提升我们这种呃。Service的环境的一些效率。下面一个是我们在呃,Follow b的一些日志压缩的加加速,嗯,Follow b也一样啊,是呃比较常用一个日志收集收集器,像efk啊,呃我们都会用到这个发B来做日志的收集,那呃通过Intel尔的一些技术,比如说Intel尔最新一代CPU所附带一个IA的加速器,还有刚才提到这个IA-L的一个指令级,我们都可以针对呃发这个组件进行一些日志压缩解压缩的能力的提升。
04:30
呃,左边这个图我们可以看到他在呃日志传送到file bit的过程中,我们呃会有两部分的一些加速的呃过程,比如说我们在最开始就呃这个追形编码格式的时候,我们就可以通过AV912对它进行一些呃向量化的加速,让他呃去。通过AL2这种呃向量化的能力去并行的做很多处理。那呃,处理完这个Jason的一些编码之后呢,我们还通过IA-L或者I这个加速器的能力,对他的日志数据进行一个压缩,然后再传送到下一步,呃,比如说传送到卡卡的队列里面。
05:14
啊,那通过这样一些技术呢,我们可以呃很大程度的提升日志呃处理一个一个吞吐的能力,那为我们整个呃日志处理的环境也提升相应的效率。然后安全方面呢,我们也有相应的一些技术来提升,呃,我们整个环境一些安全性,呃,这里主要提到两个技术,一个TDX,一个SGX,下面两张图我们可以看到它,呃一个嗯使用的情况和一些呃使用的场景。比如说右边这个TDX,呃他其实就针对我们整个虚拟机进行一个加密的保护,因为呃使用这个场景的用户呢,他是可以相信自己的操作系统和自己一些应用程序是安全的,受呃受信任的,那呃我只需要保证我这个虚拟机不会受到比如说呃同一个CP里面其他租户,其他用户呃他的呃部,比如说部署在同一台主机的一些呃其他虚拟机所干扰,那我就可以信任我的应用是安全的,那通过这个TD的技术呢,就相当于有一个安全屋来把我整个虚拟机的环境都加密起来啊,我不需要担心没有我这个呃密钥的其他用户会访问到我这个虚拟机里面的数据。
06:42
通,通过这种形式,我们就可以很好的保护整个虚拟机里面的呃所有的业务,然后这个TX呢,它是支持这种呃,比如说cat肯的这样一些呃轻量虚拟机的格式,就像刚才邱凯老师提到的,呃这个t ke的service里面超级节点其实也可以呃利用到TDX这样一些技术来把整个超级节点的呃这个轻量的虚拟机进行一个整体的保护。
07:11
另外一个技术就是SGX,呃通过SGX这个技术,我们可以呃把我们需要保护的一些应用的数据放在一个叫非D的内存区域里面,这个内存的区域呃就是无论是操作系统本身,还是虚拟化,还是boss等等,呃这些底层的环境都没办法去访问一个块一块空间,只有是呃授信的一个应用程序才可以访问到这块空间。然后通过这样一些保护的形式,我们可以把一些特殊的业务,特殊的数据放在这个CD的内存空间里面进行一个呃保护,那我们没有任何呃,我们任何没有授权的一些访问都不会访问到,呃,在这块领域里面的。
08:03
呃,所有的数据,但是呢,SDX也会有一定的门槛,因为呃对应用来说,他也会要呃一些适配的动作来,呃把他的一些保护的数据放在这个内存的空间里面。所以相对业务来说,呃引入SG会有一些门槛,然后呃用TDX这个技术呢,就呃不需要对应用做任何的改动。这个是,呃。安全的领域,Intel呃可以提供给云原生的两种呃两种特性,然后这两种特性都可以通过一些呃平台的整合,或者说呃part in的方式去整合到我们的环境里面。往下是微服务通讯这这块了,呃通讯这块呢,我们呃通过一些压缩的能力,把我们比如说eto之间的一些通讯进行一个呃数据压缩,然后把呃数据量变小呃然后他的那个吞吐率会提升呃然后我们在嗯不同的就是端到端之间呃有一个双向认证的加速,就是它会呃可以通过实现POS的方式进行呃双向的验证,然后在这个TLS握手过程中,我们也可以用呃一些加速器和CPU上自带一些指令集进行进行一个加速,让我们既实现这个安全性,双方通讯的安全性,也保证它的性能是得到呃满足业务要求的。
09:47
其他的方式,比如说像呃英我的一些呃一些呃worker节点的线程并行处理啊,然后呃这个跳过TCP的堆栈来做呃一个通讯等等,我们也在这些项目里面呃有所有所结合,能让呃这样类型的一些业务跑得更快。
10:10
然后提升服务网格的安全性呢,刚才已经提到过了,我们也可以把呃一些密钥呃证书放在我们SGX这个特殊的空间里面去保护,那除了呃我我自己放上去放密钥的一个,比如说KMS这样一个环境之外,其他任何的用户都没办法访问到我的密钥,那通过这种形式就可以大大的增强我们在整个通讯过程中一些安全性。然后往下呃像q a tda这两个其实是呃我们新的最新一代CPU所提供的一个加速器,它可以提供呃像压缩解压缩,呃加解密,还有数据搬运等等这些呃加速的能力,呃大大的提升我们在呃试用的一些应用场景所能提供出来一些性能,这里我就不详细技术,呃最后我还会花一页子去讲讲我们新一代CPU所提供的一些加速器,加速器的能力。
11:19
呃,还有就是我们在资源编排这一块,在一个大的环境里面,比如说腾讯的t ke环境,那他肯定是呃不同的。不同的机型,不同代次的一些呃服务器混部的,不可能说所有资源都是最新的,那一旦我们的业务在使用了一些新的技术,比如说刚才提到像QVTDC等等一些Intel尔CPU提供出来的新的技术之后,呃,我怎么样保证我这些资源是要部署在我对应一些支持这样能力的基础架构的环境之上呢?那就会用到呃这一页里面所提到的几一些内容,比如说I Di和NFD,他会去整体的发现我整个环境里面,呃支持这样一些硬件的呃资源是在哪里,然后我业务需要这些资源的时候,我就要把这些,比如说这个容器部署在对应支持这个能力的一些呃服务器上。
12:20
然后呢,在这个服务器里面,我可能呃保证不,我的业务之间通讯不夸new嘛,是性能最强的,那我也会通过呃像mi这样一些技术,保证我我们在一些特定的场景通讯是有一个最大的性能的,那通过这些技术就可以提升我们在资源编排的环境里面,呃最大程度的利用到Intel本身提供一些加速的能力和呃一些资源调度能力,保证我们业务有一个最好的性能,发挥最好的能力。OK,呃接下来简单讲讲我们呃在原生这个领域跟腾讯云有合作一些产品,第一个是在云函数呃这个环境里面,我我们有一个呃音视频转码的加速,我们通过一些呃library库呃调用了我们Intel的一些加速指令集,然后在这个音视频转码的领域,它呃会有一个叫MV,就是这个运动向量重用这样一个技术帮我们在编码解码的过程中,只需要调用一次MV,这个呃运动向量。
13:37
的计算就可以完成整个转码的过程,然后呃通过这个技术去呃来来呃做这个转码的动作,我们整体的提升可以达到60%,同时他呃对这个呃视频的质量不会有所影响。
14:01
然后t ke的镜像市场这边也有一个呃端到端的大数据呃可信计算的解决方案,那通过刚才提到那个SGX的技术,我们把呃这个端到端的大数据AI解决方案也放到了t ke的镜像市场里面,供用户去选择,那用户可以一键的部署这个呃解方案到他的t ke的环境里面去,呃利用到这样一个解决方案来承载他的一些大数据的业务,那保证他在多方计算的时候,可以提供一个非常安全可信的环境,让他的业务不会有任何的呃数据安全泄露的风险。呃最后一个是我们腾讯云TS1的微服引擎里面,我们呃针对里面一个呃服务治理的组件,开源的组件,北极星这这个项目也有啊,也有优化用到呃我们一些cry monkey buffer这样一些技术来提升它在呃这个SSL握手的一些性能,那通过这些提升呢,我们用户就可以保证呃性能不会有太大降低的情况下去呃实现这个MTS双向的TS的验证。
15:21
那这样提提升了安全性,又不会降低它的性能啊。最后我会花呃一两分钟时间去简单介绍一下我们CPU最新的一些能力啊,我们现在自强的处理器已经到第四代了,但在腾讯云的环境是就是我们右上角可以看到的CVM的实例,S7和M7,那呃可能现在呃腾讯云只是发布了,但还没呃规模上线,预计的话年终呃就可以有一个批量的上线。这样呃,左边我们可以看到它的性能相对前一代也有很大的提升,包括它的内存用了DD5,然后呃,本身它的一些PC1的量也增大了,还有我们这款CPU也提供了一个一个h bm hi memory这种高带宽内存的一一个型号,可以让户用户去选择。
16:22
那用户有一些高带宽业务的需求的时候,就可以用到这个HBM的型号来,呃,做相应一些呃支持。然后呃,结合IPC的呃一些性能的提升和它核心数的提升,那相对前一代我们有呃整体有60%的一个呃oo就是整体的一个性能的提升。然后中间那列其实就是我们一些加速器,包括在AI的加速,还有一些呃加解密和压缩,解压缩的加速,我们下一页会简单介绍,呃最后一类就是运营上面的可能呃跟各位感知性不会太强,就不在这里赘述了。
17:07
最后一页,呃,这是我们介绍Intel第四代自强可扩展处理器里面呃,新增的五个呃加速器。包括AI的网络的存储和数据分析这几个领域所用到的,呃一些加速器都呃自己做特殊的标记,AX这个加速器呢,它是一个矩阵加速的一个加速器,它可以帮我们在AI的场景去用到CPU上的一些加速的能力,我们呃这里可以支持两种数据格式,呃一个是INT81个是BF16,呃比如说用INT8,呃用了MX加速之后,我们可以有四倍的一个性能的提升,然后在BF16的这种数据格式的环境,我们也有,呃相对于前一代有两倍的性能的提升。呃,我们跟腾讯有一些业务的合作,我们做过相应的测试,用了AX的呃这个加速器之后,我们在呃一些训练的场景,我们可以跟呃英伟达以往一些呃。
18:12
相对旧一点的训练卡,比如说V100,我们一颗CPU可以跟他V110张卡的这个训练的能力是接近的,当然这个是经过我们优化过的场景哈。所以呃,在一些,呃。比较清亮的这个大模型,或者说训练的环境,呃,比如说我们那个。A。那个呃,规模在十个B就是呃。100亿这个呃,模型大小以下就可以用我们CPU的能力来做相应的一些呃训练。然后呃,QVT和dlb是我们在网络处理的一些加速加速器,比如说QVT,它可以把我们数据进行一个压缩,然后呃降低我们网络处理的一些呃一些数据量,提升整体的吞吐,然后DB可以帮助我们在呃,比如说一些GA尾呃负载均衡的场景做到一个精细的。
19:20
呃控制它的一个SLA,比如说我们申请CVM的时候,我们申请了呃一百一百兆的带宽,它就可以利用标B的技术,可以给我们精确分配到呃误差在1%-2%左右的一个呃一个带宽,可以保证我们SLA,然后d sa是帮助我们在数据传输里面进行加速的,比如说我们有一些业务要从内存传输数据到存储,或者说从呃我A虚拟机传输数据到B虚拟机,这样一些数据传输的场景,可以用到DC这个技术来做相应的加速,提升它数据传输的效率。
20:02
最后IA这个呃存类分析的加速器,它可以帮我们在呃,比如说logx DB,还有一些呃SPA等等一些大数据分析的领域去呃进行一些数据压缩,提升我们在数据处理方面的一些能力。OK,呃,这是它相应的一些性能的提升啊,就是用了这些加速器之后,相比没用,呃,我们可以看到它的呃性能差异,呃,从10%几到百呃几十倍的一个性能提升都有,那根据不同的应用场景,我们也会去推荐用户有不同的一些加速器的选择,来满足不同的要求,然后这里MX的加速我们可以看得到呃,他在呃,比如说一些rena呃,这些呃呃。目标,目标检测等等,它都针对以往有非常大的性能的提升,我们也可以适当的去根据业务的场景来使用这些加速器。
21:08
好,最后其实Intel尔在开源的领域投入是非常大的,包括我们在CNCF里面长期都是呃第六第七这样一些排名,从总体各个项目的呃总体的贡献度来看,我们都是比较领先的,我们同时也会呃保证在开源里面持续的投入,这里也提供了一个GI他的呃链接,大家也可以去访问Intel在开源的生态里面有哪些呃投入和哪些项目在做的好,我分享的内容就到这,谢谢各位。
我来说两句