专栏首页腾讯架构师的专栏服务亿级图片压缩那些事
原创

服务亿级图片压缩那些事

作者:王小飞

导语:图片压缩原本是2.4w台物理设备支撑,当前弹性平台仅用6k台容器为每天百亿次的压缩提供了可持续的计算力,除了图片压缩业务,平台还服务了视频转码业务,spark计算以及AI围棋和王者荣耀计算业务。复用现网低负载资源总核数达70W核,全天平均CPU使用率高达56%。

背景

QQ相册、微信传图和朋友圈每天近百亿张图片活跃于用户的手机、平板和电脑屏幕中,为大家带来生活趣味的同时,也给图片压缩带来了百亿级/天的计算量,当前每一个压缩计算都跑在架平TCS-弹性计算平台上,下面我们就来聊聊平台是如何服务海量压缩计算的。

可行性

图片压缩迁移弹性计算平台之前,采用压缩程序混部存储机器的策略,虽然节省计算资源的设备成本,但混部的运营面临如下几个问题,并增加了人力的运营成本:

1、资源利用率低

采用静态资源设备混部的方式,图片压缩业务在规划资源时,以业务高峰规划资源,设备量需几万台;而QQ和微信等社交类互联网业务,存在明显的波峰波谷效应,便意味着:非高峰期压缩设备的计算力被浪费了。

2、运维成本增加

随着QQ和微信业务快速发展,压缩资源的需求量不断增加,运维的同事每季度或者每月都需上架设备,投入人力运营;尤其业务突发时,资源量不能满足业务增长量,触发业务架构的柔性策略,对用户的体验有损。

3、业务相互干扰

图片业务与存储程序混合部署,未做资源物理隔离和程序侧性能隔离,存在cpu、内存等资源的竞争,业务高峰触发竞争加剧,导致互伤。

而TCS-弹性计算平台独有的资源物理隔离,服务量自动伸缩,服务权重动态可调等策略,契合的解决了业务的痛点。

平台那些事

  • 资源隔离 压缩存储程序混部时,业务高峰期,随着请求量的增长,cpu时间片的竞争加剧,尤其对绑核的程序影响较大,现网运营中遇到过存储程序获取cpu时间片断崖式下降的场景。针对资源潜伏的恶性竞争,弹性平台在复用docker在cpu、内存隔离的基础上,并沿用了cgroup中quota、share、period的配置限制策略,但此类技术仅对资源管控,并不能灵活应对程序对cpu时间片的毛刺,对此,弹性平台创新的提出动态捆绑cpu策略,监控cpu核负载的前提下,调度容器跑在负载低的cpu上,cpu调度后效果。
  • 名字化服务 图片压缩业务原本使用master管理compress资源列表,具体到每个压缩池、每个地域都需要一个独立master模块,造成master设备资源浪费,而且管理接口不统一,新介入的开发者上手耗时久;尤其对于业务突发场景,部署资源后,需要人工增添到master,运营不友好。面对业务的如上痛点,弹性计算平台提供了名字化服务,业务侧接入后,获取一个可访问的名字,平台将资源挂到名字下输出计算力,并在名字服务的基础上,打包提供了负载均衡,异常点删除策略保障业务的正常运行,解放运维人力;而且业务侧无需理解资源调度,开发者上手快;资源的伸缩通过名字透明化,运维同事只需关注业务状况。
  • 自动调度 压缩计算的静态资源规划需按业务高峰评估,低峰cpu 空闲浪费而且资源应对业务突发的能力弱,架构上柔性但有损用户体验。针对业务需求量与资源使用量的矛盾,平台从资源调度的角度完美解决:资源按需供应,盘活资源的整体使用,通过对容器上报的cpu、内存、磁盘io及占用量和网络io等数据的分析,构建业务的负载监控,并在引入InfluxDB后,监控告警间隔缩短到秒级;平台自动调度分为动态扩缩、异常调度和感知调度。

1、动态调度

平台最基础的调度方式,根据监控的容器负载信息做调度,以平台配合业务侧做的资源模型为依据,配置了负载高低阈值。当负载高于阈值,平台秒级扩容资源;负载低于阈值下限,平台分钟级缩容下架,保障业务稳定。

2、异常调度

平台基于cpu时钟指令分配策略,微创新的提出用CPI(Cycles Per Instruction)指标监控业务的运行状态,通过对业务cpi建模,将模型跑出的cpi数据作为基准值,当业务的cpi方差值偏离模型值时,平台执行剔除或者替换操作。

3、感知调度

平台在运营压缩业务中发现:在压缩程序自身的过载保护或者其他策略作用下,会出现cpu/cpi无明显变化,但压缩的延时、失败率升高的现象,针对资源指标正常,业务异常的矛盾,业务侧配合平台做了感知调度,即业务侧感知到时延或者失败率升高的压缩设备并反馈弹性平台,平台对此类资源做降权或者替换操作。

下面的两个图是压缩容器量和cpu负载图,全天cpu使用率几乎稳定在一条直线。

  • 负载均衡 弹性平台可调度资源多种多样,母机CPU的型号也并不统一,对此平台使用benchmark程序,在各种CPU类型的机器上跑测试,为每个CPU类型计算一个性能系数(系数的范围是0.x~ 1.x),计算资源权重时,基于cpu的性能系数做主调,业务现网的延时、失败率等负载做微调,下图是动态调整后,cpu负载分布图。

总结与展望

图片压缩原本是2.4w台物理设备支撑,当前弹性平台仅用6k台容器为每天百亿次的压缩提供了可持续的计算力,除了图片压缩业务,平台还服务了视频转码业务,spark计算以及AI围棋和王者荣耀计算业务。复用现网低负载资源总核数达70W核,全天平均CPU使用率高达56%。 年底弹性平台预计可调度的计算力可到100w核,深挖平台资源的计算力、使用率,为业务提供源源不断的低成本计算,在公司发力AI,倡导成本优化的大背影下,实现业务、平台、部门的多方共赢。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • TCS 弹性计算平台:像工匠一样耕耘云计算

    2016年腾讯架构平台部相继推出了两朵云:云存储和云接入,截至目前,弹性平台运营的计算力,服务了公司图片压缩、视频转码、离线计算和AI计算等多个计算场景,前不久...

    腾讯架构师
  • AI 异常计算点的监控调度

    互联网产业拥抱 AI 成为了当下的热潮,这些业务源源不断的计算力均来自腾讯架平 TCS-弹性计算平台。建设中最突出的问题是如何发现并调度异常计算点,本文从 cp...

    腾讯架构师
  • 千年的跨越 : TEG 架构部携手微信打造 VoIP 通话平台

    对比高昂的传统跨国通话资费,逐步降低的电信宽带资费,高性能智能终端,无处不在的WiFi,相当于免费的即视通话/语音聊天体验让VoIP通话的市场基础变得更加广阔,...

    腾讯架构师
  • CUDA共享内存的使用示例

    CUDA共享内存使用示例如下:参考教材《GPU高性能编程CUDA实战》。P54-P65 教材下载地址:http://download.csdn.net/down...

    一棹烟波
  • Greenplum主节点与数据节点硬件详细信息

    $ free -h total used free shared buff/cache available Mem: 125G 6.1G 355M 230M 1...

    小徐
  • SpringIoC和SpringMVC的快速入门

    IoC和AOP是Spring框架的两大特性,IoC和MVC的流程密不可分,可以看作是面向对象编程的实现;而AOP特性则是面向切面编程的体现,也是前者的补充,所以...

    全菜工程师小辉
  • PowerBI建模表与表关系

    各位表哥表姐、表弟表妹们,我们生活一个表的世界,大家可能每天都在跟表格打交道,我们这节就来重新认识表这个家族。

    公众号PowerBI大师
  • 聊聊skywaking的CommandService

    skywalking-6.6.0/apm-sniffer/apm-agent-core/src/main/java/org/apache/skywalking/...

    codecraft
  • String - 49. Group Anagrams

    Given an array of strings, group anagrams together.

    用户5705150
  • php中pcntl_fork创建子进程

    猿哥

扫码关注云+社区

领取腾讯云代金券