前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Logstash:处理多个 input

Logstash:处理多个 input

作者头像
腾讯云大数据
修改2021-01-08 15:55:44
2.6K0
修改2021-01-08 15:55:44
举报

腾讯云 Elasticsearch Service】高可用,可伸缩,云端全托管。集成X-Pack高级特性,适用日志分析/企业搜索/BI分析等场景


我们知道Logstash的架构如下:

它的整个 pipleline 分为三个部分:

  • input 插件:提取数据。 这可以来自日志文件,TCP 或 UDP 侦听器,若干协议特定插件(如 syslog 或I RC)之一,甚至是排队系统(如 Redis,AQMP 或 Kafka)。 此阶段使用围绕事件来源的元数据标记传入事件。
  • filter 插件:插件转换并丰富数据
  • output 插件: 将已处理的事件加载到其他内容中,例如 ElasticSearch 或其他文档数据库,或排队系统,如 Redis,AQMP 或Kafka。 它还可以配置为与 API 通信。 也可以将像 PagerDuty 这样的东西连接到 Logstash 输出。

这里的 input 可以支持多个 input,同时多个 worker 可以处理 filter 及 output:

在今天的介绍中,我们来介绍一下如何使用多个input。

应用文件

为了说明问题的方便,我把所需要用到的文件都传到 github 地址https://github.com/liu-xiao-guo/logstash_multi-input。我们可以通过如下的方式来下载这些文件:

代码语言:javascript
复制
git clone https://github.com/liu-xiao-guo/logstash_multi-input

Logstash配置文件

Logstash 的配置文件如下:

multi-input.conf

代码语言:javascript
复制
input {  file {    path => "/Users/liuxg/data/multi-input/apache.log"  	start_position => "beginning"    sincedb_path => "/dev/null"    # ignore_older => 100000    type => "apache"  }} input {  file {    path => "/Users/liuxg/data/multi-input/apache-daily-access.log"  	start_position => "beginning"    sincedb_path => "/dev/null"    type => "daily"  }} filter {  	grok {    	match => {      		"message" => '%{IPORHOST:clientip} %{USER:ident} %{USER:auth} \[%{HTTPDATE:timestamp}\] "%{WORD:verb} %{DATA:request} HTTP/%{NUMBER:httpversion}" %{NUMBER:response:int} (?:-|%{NUMBER:bytes:int}) %{QS:referrer} %{QS:agent}'    	}  	} 	if[type] == "apache" {		mutate {	  		add_tag => ["apache"]	  	}	} 	if [type] == "daily" {		mutate {			add_tag => ["daily"]		}	} }  output {	stdout {		codec => rubydebug	} 	if "apache" in [tags] {	  	elasticsearch {	    	index => "apache_log"	    	template => "/Users/liuxg/data/apache_template.json"	    	template_name => "apache_elastic_example"	    	template_overwrite => true	  }		}	if "daily" in [tags] {	  	elasticsearch {	    	index => "apache_daily"	    	template => "/Users/liuxg/data/apache_template.json"	    	template_name => "apache_elastic_example"	    	template_overwrite => true	  }		}	}

为了说明问题的方便,我们使用了两个 input。它们分别对应不同的 log 文件。对于这两个 input,我们也使用了不同的 type 来表示:apache和 daily。尽管它们的格式是一样的,它们共同使用同样的一个 grok filter,但是我们还是想分别对它们进行处理。为此,我们添加了一个 tag。我们也可以添加一个 field 来进行区别。在 output 的部分,我们根据在 filter 部分设置的 tag来对它们输出到不同的 index里。

运行 Logstash

我们可以通过如下的命令来运行:

代码语言:javascript
复制
$ pwd/Users/liuxg/elastic/logstash-7.3.0bogon:logstash-7.3.0 liuxg$ sudo ./bin/logstash -f ~/data/multi-input/multi-input.conf

当你们运行这个例子的时候,你们需要根据自己存放 multi-input.conf 文件的位置改变而改变上面的命令。

运行的结果如下:

根据显示的结果可以看出来 daily 的事件最早被处理及输出。接着 apache 的数据才开始处理。在实际的应用中,我们可能有不同的数据源,比如来自其它 beats 的监听某个端口的数据。

我们可以在 Kibana 中看到我们最终的 index 数据:


最新活动

包含文章发布时段最新活动,前往ES产品介绍页,可查找ES当前活动统一入口

Elasticsearch Service自建迁移特惠政策>>

Elasticsearch Service 新用户特惠狂欢,最低4折首购优惠 >>

Elasticsearch Service 企业首购特惠,助力企业复工复产>>

关注“腾讯云大数据”公众号,技术交流、最新活动、服务专享一站Get~

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 【腾讯云 Elasticsearch Service】高可用,可伸缩,云端全托管。集成X-Pack高级特性,适用日志分析/企业搜索/BI分析等场景
  • 应用文件
  • Logstash配置文件
  • 运行 Logstash
  • 最新活动
相关产品与服务
Elasticsearch Service
腾讯云 Elasticsearch Service(ES)是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack。ES 支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的 Serverless 模式。使用 ES 您可以高效构建信息检索、日志分析、运维监控等服务,它独特的向量检索还可助您构建基于语义、图像的AI深度应用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档