前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >C端系统性能优化一篇就够了!

C端系统性能优化一篇就够了!

作者头像
JavaEdge
发布2024-05-25 14:46:42
1090
发布2024-05-25 14:46:42
举报
文章被收录于专栏:JavaEdge

1 啥是性能优化

随用户增加、业务迭代,系统面临各种挑战,如不及时优化,会诸多问题:系统越来越慢,流量一高系统就卡顿甚至宕机。性能优化贯穿软件生命周期。

1.1 性能指标
1.1.1 响应时间(RT)

完成某一功能所需要的时间,“平均响应时间”、“百分位数”等指标衡量。

① 平均响应时间(AVG)

接口平均处理能力。

计算方式:接口请求所有的响应时间和 / 总请求数。

② 百分位数(Top Percentile)

超过n%的请求都在m时间内返回,一般用TPn=m描述,如:TP99=5,表示超过99%的请求都能在5ms内返回。

计算方式是:将接口的响应时间按从小到大的顺序进行排列,取特定百分位的耗时,即为该接口的百分位数。

百分位数更反映接口整体响应情况,因为高并发场景常出现长尾请求,如用平均响应时间衡量,由于长尾请求会被大量低RT平均掉(此时很多用户的请求已经很慢了),进而无法及时感知真实业务状况。举个例子:接口A有100次请求,其中97次1ms,3次100ms,平均响应时间为 (1 * 97 + 3 * 100) / 100 = 3.97ms,此时3.97ms并不能真实反映接口的整体性能,因为其中97次请求RT才1ms。

1.1.2 并发能力

一般用QPS或TPS衡量:

  • QPS指的是每秒请求数
  • TPS是指每秒事务数。性能评估时,TPS用的比较多。
1.2 性能优化本质
  • 将“响应时间”比作时间维度
  • “并发能力”类比空间维度

性能优化本质上也是从“优化时间”、“优化空间”、“时空互换(用时间换空间或用空间换时间)”思考,在空间、时间取舍。

例子

限速50km/h,规定任何时刻车道有且仅有一辆。1h内,从A点出发到达B点的汽车最多只有10辆。

提升这块路段车流,咋办?

58b06a376fc6452c0b3074c5daf11a7e.png
58b06a376fc6452c0b3074c5daf11a7e.png

增加车道数(空间维度):如增到6车道,1h内从A点出发到达B点的汽车数可提到60:

ac7dfce53b24b612ff73ecd023141f05.png
ac7dfce53b24b612ff73ecd023141f05.png

第二种方式,道路提速(时间维度):提到100km/h,那么,在1h内,从A点出发到达B点的汽车数可提到20:

33c32f6ff74e6d3859578e13b964cf1e.png
33c32f6ff74e6d3859578e13b964cf1e.png

2 咋做性能优化

2.1 系统性思考性能优化点

人维:性能优化是属于技术团队的,技术团队包括开发、测试和运维:

  • 运维负责提供一些监控数据
  • 测试负责提供一些压测数据
  • 开发基于压测、监控数据,明确具体的优化点以及优化手段

产品维:性能优化是业务功能的一部分,是为了满足某些业务场景。性能优化考虑:

  1. 本次性能优化的业务场景是什么,有哪些场景需要优化
  2. 这些场景的运维监控数据、测试压测数据是什么,要优化哪里
  3. 这些数据里面反映的系统瓶颈在哪里,如何去优化
  4. 重复(2)、(3)过程,直至满足优化目标

结合性能优化的本质,整个优化过程:先从业务需求角度出发,思考待优化场景是否值得投入,如一个任务每次需要跑半小时,从技术层面,可以做下优化,但结合业务情况却发现,此任务的执行频次是每周一次,如果优化此场景需要耗费较大人力,那么,这个投入就是不值得的;

技术实现角度,思考咋优化时间、空间、牺牲空间换时间、牺牲时间换空间等。总之,需要以一个更全面的视角去看待它,避免进入头痛医头脚痛医脚。

2.2 性能优化方式

一个外部请求进入系统,会经历多个软硬件节点,所有节点处理时间之和才是用户请求处理时间,如其中任意一个节点性能有问题,系统整体性能就上不去。由于节点自身差异性,性能提升方法也不同,但总体分为:

  • 提升单个请求处理效率
  • 并行处理多个请求
2.2.1 提升单个请求处理效率

一个外部请求进来后,让其在尽可能短的时间内处理完成。

① 提升调用链上各节点的处理速度

技术角度:

  • 数据库层面,可以考虑加索引、读写分离、分库分表等
  • 应用层,加缓存(本地缓存,分布式缓存,或叠加)、复杂查询走ES索引
  • 代码编写,考虑更高效算法数据结构,如:读多写少用数组、写多读少用链表、取余采用位运算

业务角度:

  • 尽量避免重复查询
  • 查询类操作,尽可能批量查询
  • 上游调用方尽可能使用更合适的下游接口,如:下游服务方有分别返回A、B、AB的三类接口,如果上游使用方仅需要A信息,应使用A接口;如果同时需要AB信息,应使用AB接口,而不是依次调用A、B接口,再在内存聚合
② 请求内部做并行化处理

单个请求拆为多个子请求,各子请求并行处理,子请求结果合并后返回。可基于 CompletableFuture 实现一套并行处理框架,运用到如商品详情页加载。

③ 请求处理异步化

最典型的MQ如:下单操作时,除了扣减库存、生成订单外,还给用户发送支付成功消息、赠送积分等后置操作。非核心后置流程采用MQ异步处理,提升下单接口性能。

进程内,另开一个线程执行这些非核心流程;或先将非核心操作数据暂存在某种介质(DB表、redis等)中,然后采用定时任务定期扫描并执行这些操作。

2.2.2 并行处理多个请求

有多个外部请求进来时,让系统内部多个节点分别处理这些请求,或者节点内部做并行处理。

如节点采用集群部署,并通过LB,将用户请求分摊到不同的节点进行处理;节点内部采用线程池。

3 落地

直播间进入:用户先访问直播商品详情页,然后购买,再访问详情页面时,会出现直播间入口,在进入直播间之前,会做一次权限校验,校验通过后,才可进入直播间互动:

90587fe8252d49f113c1660f2c77cc96.png
90587fe8252d49f113c1660f2c77cc96.png

外部请求:

  • 查询直播商品详情
  • 商品下单
  • 进入直播间前做用户权限校验

通过流量监控数据及日志分析,发现性能瓶颈在“直播商品详情加载”。商详因为上游服务请求量超过下游服务承受吞吐量,导致大量RPC调用超时。

反映出问题:

  • 依赖的部分非核心接口没有加缓存、做降级,导致整个请求失败
  • 依赖的部分核心接口性能较差,导致后续请求一直被阻塞,直至超时异常返回
  • 下游服务提供的查询接口比较重量级,但上游服务仅需要返参中的部分字段,导致单次查询RT一直下不去
  • 上游调用方使用了错误的下游接口,比如上游调用方本来可以调用一次详细信息查询接口,便能获取所有需要的信息,可实际中,却先后调用了两种查信息的接口,才拿到完整的信息
  • 无状态查询接口没有加缓存,导致了频繁的RPC调用。

对此,主要优化方向如下:

优化前,梳理整个调用链上,接口强弱依赖关系及每个接口RT

3.1 针对弱依赖接口
RPC调用超时时间设置策略

统计出弱依赖接口 TP99(RT较稳定的接口)/ TP95 (RT波动较大接口)的RT,设置它们的超时时间为 (1 + 50%) (TP99 或 TP95)

一般设置超时时间为2s或3s,但每个接口的RT是不一样的,比如:接口A的RT稳定在100ms内,那么,如果超时时间是2s,假若接口A超时了,本次RT至少是2s,但如果超时时间设置为100ms,且我们加了1次重试,那么,本次请求的RT不会超过200ms,同时,重试时接口很大概率会正常返回结果。

缓存策略

给接口添加前置缓存。采用分布式缓存,缓存更新策略:采用两个缓存,缓存A、B(缓存A TTL=m分钟,缓存B TTL=n分钟,且n>2m),先从缓存A读,有则返回,无则B读,并在返回前,异步启动一个更新线程,同时更新缓存A和缓存B。

降级策略

接口接入熔断降级机制,并对异常做捕获,返回默认值。

3.2 针对强依赖接口
3.2.1 RPC调用超时

统计出强依赖接口 TP99 的RT,设置它们的超时时间为 (1 + 50%) (TP99)

3.2.2 重试

根据接口RT波动性,基于dubbo的重试机制,设置重试次数为2或3次。

3.2.3 缓存
  • 商品基础信息,考虑“缓存预热”、“热点访问”等问题,接入透明多级缓存
  • 其他一些无状态查询信息,本地缓存
3.3 商品详情信息聚合操作并行化

商品详情页面是聚合类信息展示窗口,除商品基础信息外,还包括A、B、C等内容,且这里的A、B、C和商品基础信息四者间无前后依赖。

将商品详情加载拆分为了4个子任务,并采用并行处理框架,对子任务做了并行化处理,并聚合返回,较大提升接口RT性能。

3.4 查询类接口能力收拢

下游服务方提供稳定的原子化接口。上游调用方使用了下游不太合适的接口。由于历史原因,当前下游服务方中有特别多的查询类接口,且很多查询类接口在功能上都是重叠的。

针对查询类接口,按照其返参字段使用场景的不同,提供三种不同粒度的通用类原子化接口,之后所有的查询类需求,都会强制要求上游调用方从这三类接口中选择:

  • 粗粒度:返回最基本字段
  • 中粒度:返回经常使用的字段
  • 细粒度:返回详细信息

4 总结

产品功能是持续迭代的,性能优化不是一蹴而就。针对同一个节点,在不同的时刻,其优化点也可能不一样,如新功能刚上线时,查询性能提升可能仅仅通过加索引的方式便能解决,但随着功能叠加,后续的优化方向可能是“尽量走批量查询”、“加缓存”。因此,性能优化遵循“具体问题,具体分析”。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-05-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 啥是性能优化
    • 1.1 性能指标
      • 1.1.1 响应时间(RT)
      • 1.1.2 并发能力
    • 1.2 性能优化本质
      • 例子
  • 2 咋做性能优化
    • 2.1 系统性思考性能优化点
      • 2.2 性能优化方式
        • 2.2.1 提升单个请求处理效率
    • 3 落地
      • 3.1 针对弱依赖接口
        • RPC调用超时时间设置策略
        • 缓存策略
        • 降级策略
      • 3.2 针对强依赖接口
        • 3.2.1 RPC调用超时
        • 3.2.2 重试
        • 3.2.3 缓存
      • 3.3 商品详情信息聚合操作并行化
        • 3.4 查询类接口能力收拢
        • 4 总结
        相关产品与服务
        云直播
        云直播(Cloud Streaming Services,CSS)为您提供极速、稳定、专业的云端直播处理服务,根据业务的不同直播场景需求,云直播提供了标准直播、快直播、云导播台三种服务,分别针对大规模实时观看、超低延时直播、便捷云端导播的场景,配合腾讯云视立方·直播 SDK,为您提供一站式的音视频直播解决方案。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档