服务亿级图片压缩那些事

作者:王小飞

导语:图片压缩原本是2.4w台物理设备支撑,当前弹性平台仅用6k台容器为每天百亿次的压缩提供了可持续的计算力,除了图片压缩业务,平台还服务了视频转码业务,spark计算以及AI围棋和王者荣耀计算业务。复用现网低负载资源总核数达70W核,全天平均CPU使用率高达56%。

背景

QQ相册、微信传图和朋友圈每天近百亿张图片活跃于用户的手机、平板和电脑屏幕中,为大家带来生活趣味的同时,也给图片压缩带来了百亿级/天的计算量,当前每一个压缩计算都跑在架平TCS-弹性计算平台上,下面我们就来聊聊平台是如何服务海量压缩计算的。

可行性

图片压缩迁移弹性计算平台之前,采用压缩程序混部存储机器的策略,虽然节省计算资源的设备成本,但混部的运营面临如下几个问题,并增加了人力的运营成本:

1、资源利用率低

采用静态资源设备混部的方式,图片压缩业务在规划资源时,以业务高峰规划资源,设备量需几万台;而QQ和微信等社交类互联网业务,存在明显的波峰波谷效应,便意味着:非高峰期压缩设备的计算力被浪费了。

2、运维成本增加

随着QQ和微信业务快速发展,压缩资源的需求量不断增加,运维的同事每季度或者每月都需上架设备,投入人力运营;尤其业务突发时,资源量不能满足业务增长量,触发业务架构的柔性策略,对用户的体验有损。

3、业务相互干扰

图片业务与存储程序混合部署,未做资源物理隔离和程序侧性能隔离,存在cpu、内存等资源的竞争,业务高峰触发竞争加剧,导致互伤。

而TCS-弹性计算平台独有的资源物理隔离,服务量自动伸缩,服务权重动态可调等策略,契合的解决了业务的痛点。

平台那些事

  • 资源隔离 压缩存储程序混部时,业务高峰期,随着请求量的增长,cpu时间片的竞争加剧,尤其对绑核的程序影响较大,现网运营中遇到过存储程序获取cpu时间片断崖式下降的场景。针对资源潜伏的恶性竞争,弹性平台在复用docker在cpu、内存隔离的基础上,并沿用了cgroup中quota、share、period的配置限制策略,但此类技术仅对资源管控,并不能灵活应对程序对cpu时间片的毛刺,对此,弹性平台创新的提出动态捆绑cpu策略,监控cpu核负载的前提下,调度容器跑在负载低的cpu上,cpu调度后效果。
  • 名字化服务 图片压缩业务原本使用master管理compress资源列表,具体到每个压缩池、每个地域都需要一个独立master模块,造成master设备资源浪费,而且管理接口不统一,新介入的开发者上手耗时久;尤其对于业务突发场景,部署资源后,需要人工增添到master,运营不友好。面对业务的如上痛点,弹性计算平台提供了名字化服务,业务侧接入后,获取一个可访问的名字,平台将资源挂到名字下输出计算力,并在名字服务的基础上,打包提供了负载均衡,异常点删除策略保障业务的正常运行,解放运维人力;而且业务侧无需理解资源调度,开发者上手快;资源的伸缩通过名字透明化,运维同事只需关注业务状况。
  • 自动调度 压缩计算的静态资源规划需按业务高峰评估,低峰cpu 空闲浪费而且资源应对业务突发的能力弱,架构上柔性但有损用户体验。针对业务需求量与资源使用量的矛盾,平台从资源调度的角度完美解决:资源按需供应,盘活资源的整体使用,通过对容器上报的cpu、内存、磁盘io及占用量和网络io等数据的分析,构建业务的负载监控,并在引入InfluxDB后,监控告警间隔缩短到秒级;平台自动调度分为动态扩缩、异常调度和感知调度。

1、动态调度

平台最基础的调度方式,根据监控的容器负载信息做调度,以平台配合业务侧做的资源模型为依据,配置了负载高低阈值。当负载高于阈值,平台秒级扩容资源;负载低于阈值下限,平台分钟级缩容下架,保障业务稳定。

2、异常调度

平台基于cpu时钟指令分配策略,微创新的提出用CPI(Cycles Per Instruction)指标监控业务的运行状态,通过对业务cpi建模,将模型跑出的cpi数据作为基准值,当业务的cpi方差值偏离模型值时,平台执行剔除或者替换操作。

3、感知调度

平台在运营压缩业务中发现:在压缩程序自身的过载保护或者其他策略作用下,会出现cpu/cpi无明显变化,但压缩的延时、失败率升高的现象,针对资源指标正常,业务异常的矛盾,业务侧配合平台做了感知调度,即业务侧感知到时延或者失败率升高的压缩设备并反馈弹性平台,平台对此类资源做降权或者替换操作。

下面的两个图是压缩容器量和cpu负载图,全天cpu使用率几乎稳定在一条直线。

  • 负载均衡 弹性平台可调度资源多种多样,母机CPU的型号也并不统一,对此平台使用benchmark程序,在各种CPU类型的机器上跑测试,为每个CPU类型计算一个性能系数(系数的范围是0.x~ 1.x),计算资源权重时,基于cpu的性能系数做主调,业务现网的延时、失败率等负载做微调,下图是动态调整后,cpu负载分布图。

总结与展望

图片压缩原本是2.4w台物理设备支撑,当前弹性平台仅用6k台容器为每天百亿次的压缩提供了可持续的计算力,除了图片压缩业务,平台还服务了视频转码业务,spark计算以及AI围棋和王者荣耀计算业务。复用现网低负载资源总核数达70W核,全天平均CPU使用率高达56%。 年底弹性平台预计可调度的计算力可到100w核,深挖平台资源的计算力、使用率,为业务提供源源不断的低成本计算,在公司发力AI,倡导成本优化的大背影下,实现业务、平台、部门的多方共赢。

原创声明,本文系作者授权云+社区-专栏发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏重庆的技术分享区

2018年微服务的5个发展趋势

原文地址:https://medium.com/memory-leak/5-microservices-trends-to-watch-in-2018-aed1...

1382
来自专栏Rainbond开源「容器云平台」

Uber改造整体单一式代码库后的微服务架构实践

832
来自专栏EAWorld

基于微服务的企业应用架构设计范式

各位群友,大家好。今天要和大家分享的话题是“基于微服务的企业应用架构设计范式”。 ? 这个话题曾经分别在PWorld大会和QCon2016大会上做过分享,得到不...

3097
来自专栏云计算

看看上下文映射的清晰视图

在我之前的文章中,我详细讨论了有界上下文以及如何处理域的复杂性。最好将域划分为几个子域,并将它们映射到不同的有界上下文,其中每个业务实体/值对象在该上下文中都具...

1113
来自专栏养码场

一周播报|明明BUG这么多,死也不给看代码?这位程序员你咋这么矫情......

Q:有两张表(一个库),一个是用户表、一个是会员表,一个会员记录对应多条用户记录,有一个事务过程如下:每更新用户表中一条记录,更新(update)对应会员表中的...

632
来自专栏鹅厂网事

海量数据存储硬件平台解决思路

"鹅厂网事"由深圳市腾讯计算机系统有限公司技术工程事业群网络平台部运营,我们希望与业界各位志同道合的伙伴交流切磋最新的网络、服务器行业动态信息,同时分享腾讯在网...

2505
来自专栏美团技术团队

美团旅行销售绩效系统研发实践

背景 O2O是目前互联网竞争最激烈的领域之一,其重要的业务特征是有大规模的线下业务团队,他们分布在五湖四海,直接服务着数以百万的商家,责任很重,管理的难度巨大。...

37914
来自专栏后端技术探索

12306系统高并发探讨

铁道部的12306网上购票系统着实“火”了一把,在中国境内可谓是无人不知无人不晓,曾有人在网上戏称12306为“史上最牛电商”。12306购票系统的初衷是系统通...

1012
来自专栏Golang语言社区

Uber如何使用go语言创建高效的查询服务

在2015年初我们创建了一个微服务,它只做一件事(也确实做得很好)就是地理围栏查询。一年后它成了Uber高频查询(QPS)服务,本次要讲的故事就是我们为什么创建...

3319
来自专栏about云

12306网站:分布式内存数据技术为查询提速75倍

问题导读: 1、什么是GemFire分布式内存数据技术? 2、12306购票网站是如何实现大规模访问? 摘要: 背景和需求   中国铁路客户服务中心网...

3146

扫码关注云+社区