说实话,最近跟几个在一线做运维的老哥聊天,大家普遍反映一个现象:公司要么没有专门的人搞可观测性,要么搞了个“集中式可观测性团队”,结果这团队天天忙着修 Grafana 页面、配告警规则、挖指标字段,最终成了“工具运维中心”——活没少干,但业务团队该吐槽还是吐槽,该漏报还是漏报。
这让我想起一个经典问题:可观测性到底应该谁来做? 今天我们就聊聊这个话题,结合我自己踩过的坑和 SpotOn 的实战案例,谈谈我对可观测性组织模式的看法。
很多公司,尤其是规模稍大的企业,一研究可观测性就想着“我们要成立一个监控团队”或者“我们要搞一个可观测性平台团队”。结果呢?
📝 Notes: 我见过的最糟糕的情况是——集中式团队成了“配置管理员”+“告警搬运工”,各业务团队甚至不知道自己的服务在监控什么、怎么配置告警。
说白了,可观测性的本质,不是“有一个团队能做监控”,而是“每个团队都能理解自己服务的健康状态”。 就像质量是每个人的责任,而不是质检部的事,可观测性也一样。
有评论说:集中式团队往往沦为工具运维中心,而非赋能者,最终成为开发流程的瓶颈。我特别认同。
可观测性涉及多个环节:
这些环节没有一个能脱离业务团队单独存在。如果组织把可观测性“抽”出来丢给一个集中式团队,很快就变成:
所以,正确的姿势是什么?
与其建立一个庞大的集中式团队,不如建立一个可观测性平台团队。这两者区别在哪?
就像我们当年搞 DevOps 一样——提供 Pipeline 模板,让团队自己写 Job,而不是运维去帮每个项目写 Jenkinsfile。
📝 Notes: 这里说的“约定优先配置”就是——你只需要像是
Prometheus Crd一样类似ServiceMonitor在代码里声明service: my-app和team: team-x,平台自动帮你配置默认的告警规则、仪表盘和日志收集。
前两天我看了 SpotOn 的分享(How SpotOn Consolidated Observability Tools & Drove Observability Culture Change with Grafana Cloud),他们从多工具的混乱状态,向 Grafana Cloud 进行了整合。
其中一个观点特别值得学习:可观测性不是堆砌仪表盘,而是为组织提供高质量数据以驱动决策。 这个“决策支持”真的是很多团队忽略的关键点。
👍 优点:
👎 缺点:
从 SpotOn 的案例看,真正有效的可观测性不是自上而下强推的,而是通过“内部产品”思维去运营的。平台团队要像做产品一样设计可观测性服务,关注“用户”(即各业务团队)的体验和满意度。
🤔 一个关键问题:你的可观测性平台,是“你得用”,还是“你想用”?
很多团队的可观测性现状是这样的:
这其实就是典型的“为了监控而监控”。那怎么变?三步走。
可观测性这件事,说难也难,说简单也简单。关键不在于用了多少工具,而在于团队如何组织、文化如何建设。我自己之前带过一阵子可观测性团队,深有体会——方向对了,路就好走。而不是用战术上的勤奋掩盖战略上的懒惰。
核心要点:
折腾到现在,回头看看,能坚持把可观测性从“工具”变成“文化”的团队,最后都尝到了甜头。
🎉🎉🎉
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。