前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >原创投稿 | 结合docker快速搭建启动ELK日志收集平台

原创投稿 | 结合docker快速搭建启动ELK日志收集平台

作者头像
小小科
发布2018-05-03 10:44:29
1.2K0
发布2018-05-03 10:44:29
举报
文章被收录于专栏:北京马哥教育

豌豆贴心提醒,本文阅读时间7分钟

ELK Stack

ELK (Elasticsearch + Logstash + Kibana),是一个开源的日志收集平台,用于收集各种客户端日志文件在同一个平台上面做数据分析。

Introduction

Elasticsearch, 基于json分析搜索引擎 Logstash, 动态数据收集管道 Kibana, 可视化视图将elasticsearh所收集的data通过视图展现

工作流程

Background

起初我们搭建ELK platform都是通过rpm包或者repo的形式直接setup在服务器机器上面,这给运维后期带来的一个问题就是,每起一个新的ELK platform都需要重新setup在新的机器上面,而从运维的角度去减少这样的重复性effort变得异常突出,下面是根据我自身的经验来介绍如何通过docker solution去快速启动一个新的ELK platform,而无需重新setup。

Prerequisite

1.Clone GIT folder到本地,branch: master

建议放在user HOME下面,eg:/home/user1/

2.根据你的需求选择配置环境变量 a. Elasticsearch + Logstash + Kibana 运行在同一个机器下面,相关配置文件 : ~/elasticstack/.env

b. Elasticsearch + Logstash + Kibana 分别分开运行在不同的机器下面,各自相关的配置文件如下:

  • Elasticsearch: ~/elasticstack/elasticsearch/.env
  • Logstash: ~/elasticstack/logstash/.env
  • Kibana: ~/elasticstack/kibana/.env

上述配置文件包含的配置属性均属于基本配置属性,为了可以更方便的修改配置文件,结合docker-compose自动搜索并加载.env的特性,将ELK所需要的基本配置抽离出来作为单个.env文件来修改配置,而不需要通过逐个配置文件进行修改,下面对上述基本属性简单描述:

  • environment: 用来区分ELK platform的当前环境,通常有qa/prod,你也可以根据自己的情况指定为自己想要的value
  • E_LOCAL_DATA_PATH: 设置elasticsearch data存储在宿主机的相对路劲或者绝对路径,默认为/usr/data/
  • L_ELASTICSEARCH_HOST_ENV: 由于docker-compose里边设置了network_mode等于host,使得方便同一台机器上面方便logstash和elasticsearch通信,所以如果logstash和elasticsearch跑在同一台机器上面(a),可以直接使用localhost来指定连接elasticsearch host;如果logstash和elasticsearch在不同机器上(b),则需要指定对应elasticsearch所在机器的hostname
  • K_ELASTICSEARCH_HOST_IP: 和L_ELASTICSEARCH_HOST_ENV一样由于network_mode等于host,如果kibana和elasticsearch在同一台机器上,只需要指定0.0.0.0 or 127.0.0.1(经过多次试验,由于kibana自身加载yaml配置文件的方式貌似无法通过$获取环境变量,而是单纯获取对应properties的string,所以这里通过extra_link的方式在kibana的container里边添加了一个DNS record,所以需要使用IP而不是hostname);相应的如果处于不同的机器(b),需指定elasticsearch所在机器的IP。 以上配置属性都是启动ELK所需要的基本配置,如果有需要更多的配置,可以手动修改相应的配置文件或者联系微信lexmay 或email: eason.lau02@hotmail.com

3.配置完成后,使用docker-compose启动ELK service 关于docker-compose文件,通常不需要改动,你也可以根据自己的需求添加container的properties,你可以在docker-compose文件里看到上面配置的属性都当成环境变量传递进去,eg: ~/elasticstack/docker-compose.yml:

以上所用到的image都是自己构建然后放在hub.docker.com官网repository,相应Dockerfile构建如下 :

  • elasticsearh: ~/elasticstack/elasticsearch/Dockerfile
  • logstash: ~/elasticstack/logstash/Dockerfile
  • kibana: ~/elasticstack/kibana/Dockerfile

a. 运行在同一个机器,相关compose文件: ~/elasticstack/docker-compose.yml

b. 分开运行不同机器,相关compose文件: Elasticsearch: ~/elasticstack/elasticsearch/docker-compose.yml Logstash: ~/elasticstack/logstash/docker-compose.yml Kibana: ~/elasticstack/kibana/docker-compose.yml

  • eg:

Elasticsearch in host1:

Logstash in host2:

Kibana in host3:

4.通过kibana host+5601端口访问查看启动效果,<kibana host>:5601

成功启动

如果看到上述界面,说明配置启动成功,你可以看到Unable to fetch mapping. Do you have indices match...,是因为还没有使用beats plugin将log发送到logstash或者elasticsearch,所以不能建立index。

** 文章所有步骤都是经过实践检验并可行,若有问题,下方请评论。

本文作者:Eason

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-03-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 马哥Linux运维 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档