前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >线上故障处理手册

线上故障处理手册

作者头像
方丈的寺院
发布2020-06-03 14:45:35
1K0
发布2020-06-03 14:45:35
举报
文章被收录于专栏:方丈的寺院方丈的寺院

摘要

通常处理线上问题的三板斧是 重启-回滚-扩容,能够快速有效的解决问题,但是根据我多年的线上经验,这三个操作略微有些简单粗暴,解决问题的概率也非常随机,并不总是有效。这边总结下通常我处理应用中遇到的故障的解决方案。

原则

处理故障的时候必须遵循的一些原则

  • 提早发现问题,避免故障扩散 故障的出现链路一般如下图所示

每一层都有可能出现问题,越底层出现问题,影响面越大。所以每一个层次都需要有相应的问题监控机制,这样越早发现问题,越能尽早解决故障,避免问题的扩散。比如服务依赖的一个数据库主库有问题了,如果等到用户报过来,这时候可能服务已经挂了几分钟了。再等你分析问题,解决问题,切换主备什么的,可能几分钟又过去了。影响访问比较大了。如果在数据库出问题时,就已经收到警报,迅速解决,可能没等用户报过来,问题解决了。

  • 迅速广播 当收到一个P0警报,判断应用出现问题了,第一时间在组内广播。全部人员进入一级战斗状态,发现可能和其他依赖的服务/中间件/运维/云厂商有关,立即通知相关责任人,要求进入协同作战。
  • 快速恢复 保留现场很重要,有助于发现root cause。但是发生故障了,必须要争分夺秒,不能为了保留现场浪费几分钟的时间去干什么dump内存,jstack线程状态的事。必须第一时间内先恢复服务,之后再根据当时监控数据,去找root cause
  • 持续观察 为了解决问题,可能需要在线上进行了重启/回滚/mock/限流等操作,一定要查看是否达到了预期效果。需要持续观察一段时间,服务是否真的正常。有时候可能只是短暂下去了,还会反扑。 处理手段 处理手段无非是重启、扩容、回滚、限流、降级、hotfix

以下是我一般处理线上问题的流程

主要分为四大块

step1: 是否有变化

和造成大部分车祸的原因是由于变化导致一样,线上故障通常也是由于变化导致的。外部的变化很难感知到,但是服务自身的变化很容易感知,当有服务发布、配置变更等变化时。那么首先判断是否可回滚,可回滚的立马回滚。

step2: 是否单机

现在一般是集群部署,服务高可用。如果只是一台机器有问题,在服务可摘除的情况下立即摘除。不可立即摘除的,先扩容再摘除。

step3: 是否集群

整个服务集群都出问题了,问题就相对比较复杂一些了,需要分为单个API与多个API错误。

  • 单个API错误 是否对应用内其他API,模块、下游的存储有影响。有影响的话,可降级的及时降级。由于请求量增加引起的,限流。对其他模块无影响,再排查问题,hotfix。
  • 多个API错误 这种通常是step4出错了,可以直接到step4查看。如果不是step4错误,如果流量超预期,限流扩容操作。如果不是,找代码问题,hotfix上线

step4: 依赖的服务/存储有问题

立即找到相关团队,一起看问题。如果是自身服务不正常的请求引起的,再做相应的fix。如果是正常操作引起的,那需要紧急扩容,升级配置。

如何预防

从上述操作可以看出,故障发生时需要做的判断还是很多的,如果经验不够丰富,处理不得当,很容易引发故障升级、资产损失。所以需要提前预防。

了解你的服务

像哲学家剖析自己一样去了解你的服务。一般包含以下内容

绘制应用系统架构图

需要包含以下模块,

  • 服务给谁用 出了问题应该通知到谁
  • 包含哪些模块 应用了哪些功能模块。用户报问题过来的时候知道大体属于哪个服务出了问题
  • 系统流程 模块间如何流转的
  • 依赖的中间件 依赖了哪些中间件,对应负责人是谁
  • 依赖的存储、消息队列 依赖了哪些存储,存储运维负责人是谁
  • 依赖的服务 依赖了哪些服务,什么功能依赖了什么服务,出了问题,找谁。是否是弱依赖,可降级的。

绘制应用系统部署图

系统是如何部署的,部署在什么环境。如何登陆、扩容、升配。

梳理系统故障等级

哪些模块是核心的,哪些模块是没那么重要的,可以降级的。

压测演练

当前系统能够支持的单机QPS是多少,可能存在的性能瓶颈是什么,需要通过压测来得出来。

当前应用的API读写比是多少,对应到各个存储层面的比例是多少。当应用QPS上升,哪个依赖最先挂掉。redis/mysql 还是依赖的服务,还是应用本身。

定期盘点

无论是用户反馈故障,还是监控警报,基本都晚了,因为这时候已经累积了一定错误量的调用了。所以需要再抢先一步,定期盘点应用。衡量的指标一般围绕使用率、饱和度、吞吐量以及响应时间盘点的内容包括所有的依赖。

  • 应用层面 磁盘cpu,内存,load数,jvm gc情况
  • 系统层面 qps
  • 依赖的存储 磁盘,cpu, IOPS, qps。
  • 消息队列 消费速度是否正常

另外系统日志是第一手的故障信息来源,应用owner需要定期对错误日志进行查询,能够有效的将潜在问题扼杀在摇篮里。

监控警报

监控警报有助于提早发现故障,所以确保监控项完备,警报能够有效报出来。以下是常用的一些监控项

类型

监控项

主机状态

磁盘使用率>85

主机状态

5分钟load > 核数*1.5

主机状态

5分钟内存使用率 > 80

主机状态

5分钟CPU > 50

API

5分钟API错误率>0.1

SQL

慢查询 耗时>100ms

日志

1分钟错误数>10

日志

5分钟错误数>50

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-05-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 方丈的寺院 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 摘要
  • 原则
    • step1: 是否有变化
      • step2: 是否单机
        • step3: 是否集群
          • step4: 依赖的服务/存储有问题
          • 如何预防
            • 了解你的服务
              • 绘制应用系统架构图
              • 绘制应用系统部署图
              • 梳理系统故障等级
            • 压测演练
              • 定期盘点
                • 监控警报
                相关产品与服务
                消息队列 TDMQ
                消息队列 TDMQ (Tencent Distributed Message Queue)是腾讯基于 Apache Pulsar 自研的一个云原生消息中间件系列,其中包含兼容Pulsar、RabbitMQ、RocketMQ 等协议的消息队列子产品,得益于其底层计算与存储分离的架构,TDMQ 具备良好的弹性伸缩以及故障恢复能力。
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档