作者:hermine
导语:云原生日志服务(Cloud Log Service,CLS)是腾讯云提供的一站式日志数据解决平台,提供了从日志采集、日志存储到日志检索,图表分析、监控告警、日志投递等多项服务,协助用户通过日志来解决业务运维、服务监控、日志审计等场景问题。
2021年Q4重磅推出「数据加工」,2022.3.15前免费,欢迎大家使用该功能!
首先,数据加工是什么呢?
CLS平台在采集到日志数据之后,对杂乱无章的文本日志进行归类、结构化、清洗过滤脏数据等处理,处理后的日志数据可以应用于日志的检索分析、仪表盘、告警等功能。处理原始日志的过程,就是数据加工。
对于用户而言,数据加工的目标可以是:
接下来,本文会重点介绍腾讯会议和某内容社区头部客户的案例,在实际应用中理解数据加工的作用。
腾讯会议的数据服务团队需要从客户端的海量日志数据(千亿条/天) 上报中, 实时从中获取需要的部分数据, 按照规则提取和处理后进行回流分析和业务判断。
一开始, 客户调研自建大数据流处理平台来进行日志数据处理的方案。
该方案首先需要进行整个平台的搭建,并且需要解决日志采集-->Flink集群部署-->编写Java数据处理逻辑等问题。在业务接入和使用中,用户还要关注该集群的运维和性能。整个项目实施周期长,维护成本高。
后来,客户了解到CLS数据加工的能力, 在体验了CLS数据加工可视化界面、了解测试了DSL函数能力后,客户选择使用CLS数据加工来完成上述需求。
用户无需关注平台建设、运维以及复杂的Flink Java编程,简单、灵活、低成本的使用数据加工功能即可完成业务需求。
根据以上分析,我们不难看出:
在处理日志方面,比起自建大数据流处理平台,CLS数据加工具有开箱即用无建设成本、业务接入使用门槛更低、运维成本更低的优势。
在性能方面,腾讯会议的千亿日志数据压测,也凸显了CLS数据加工的性能优越。
该客户的原始日志量很大,费用较高,为降低成本,客户仅想保留关键业务相关的日志。
通过CLS数据加工函数,客户可过滤掉不需要的日志,最后日志量缩减为30%,真正做到了为用户省钱。
那具体可以节省多少费用呢?
假定原始日志100GB/天,经过数据加工的日志过滤之后,缩减为30GB/天,假定客户的日志存储是30天,开启了部分键值索引,而且索引流量刚好和写入日志主题的流量相等(为方便计算),从第31天开始的费用大致如下图,费用从每100GB 122元/天下降至70.75元/天,最终下降至原始价格的59%。
注:表中的价格为刊例价
在了解了两个典型客户案例后,不妨跟随我一起进入实战演练,CLS为没有日志的同学也准备了试用功能哦。
详细操作步骤请见:
https://cloud.tencent.com/document/product/614/63940
数据加工的入口在腾讯云CLS控制台,填写完加工任务名称、源日志主题、目标日志主题之后,就可以进入加工语句编辑页面。
1)如果您的日志主题中有数据:新建数据加工任务之后,它会自动加载原始日志主题的数据,在编辑框中编写你的DSL加工函数语句,就可以完成实时日志流的处理。
2) 如果您暂时没有日志:下方左侧是原始日志/自定义数据两个标签页,第二标签页是自 定义数据标签页,填入JSON格式的日志,就可以试用数据加工了。
下面我们来举个栗子吧。
小王将日志采集到 CLS,是单行文本格式。现在小王想将日志结构化,从文本中提取日志时间、日志级别、操作、URL 信息,便于后续的检索分析。
梳理一下小王的加工需求,加工思路如下:
1)使用正则提取日志时间、日志级别、URL。
2){...}中的内容是操作的详情,可以通过正则提取。
{ "content": "[2021-11-24 11:11:08,232][328495eb-b562-478f-9d5d-3bf7e][INFO] curl -H 'Host: ' http://abc.com:8080/pc/api -d {\"version\": \"1.0\",\"user\": \"CGW\",\"password\": \"123\",\"interface\": {\"Name\": \"ListDetail\",\"para\": {\"owner\": \"1253\",\"orderField\": \"createTime\"}}}"}
fields_set("Action",regex_select(v("content"),regex="\{[^\}]+\}",index=0,group=0))
fields_set("loglevel",regex_select(v("content"),regex="\[[A-Z]{4}\]",index=0,group=0))。
fields_set("logtime",regex_select(v("content"),regex="\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2},\d{3}",index=0,group=0))
fields_set("Url",regex_select(v("content"),regex="([a-z]{3}).([a-z]{3}):([0-9]{4})",index=0,group=0))
fields_drop("content")
新建一个字段 Action,使用正则{[^}]+},匹配{...}。
fields_set("Action",regex_select(v("content"),regex="\{[^\}]+\}",index=0,group=0))
新建一个字段 loglevel,使用正则[A-Z]{4}可以匹配 INFO。
fields_set("loglevel",regex_select(v("content"),regex="\[[A-Z]{4}\]",index=0,group=0))。
新建一个字段 logtime,使用正则d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2},\d{3}匹配2021-11-24 11:11:08。
fields_set("logtime",regex_select(v("content"),regex="\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2},\d{3}",index=0,group=0))
新建一个字段 Url,使用正则[a-z]{3}.[a-z]{3}匹配 abc.com,[0-9]{4}匹配8080。
fields_set("Url",regex_select(v("content"),regex="([a-z]{3}).([a-z]{3}):([0-9]{4})",index=0,group=0))
丢弃 content 字段。
fields_drop("content")
{"logtime":"2021-11-2411:11:08,232","loglevel":"[INFO]","Url":"abc.com:8080","Action":"{\"version\": \"1.0\",\"user\": \"CGW\",\"password\": \"123\",\"interface\": {\"Name\": \"ListDetail\",\"para\": {\"owner\": \"1253\",\"orderField\": \"createTime\"}"}
更多数据加工实战案例,可以访问腾讯云官网:
https://cloud.tencent.com/document/product/614/66375
轻松复制文档中日志样例和DSL加工函数的代码,在控制台跑一跑,你会有新发现,快来免费试用吧。
数据加工为其上层的检索分析、仪表盘、告警等应用提供了结构化的日志数据,帮助您在运维场景中更加游刃有余的分析日志、排查故障、指定运维决策。
附表:DSL函数大类和举例
以上就是关于「CLS数据加工」重磅功能的案例分享,如果您有更多有意思的日志实践玩法分享,欢迎投稿!
关注「腾讯云日志服务CLS技术交流群」,掌握最新动态,获取更多资讯!
往期文章:
日志源解析|自建Kubernetes集群部署CLS日志服务原理及场景实现
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。