首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谁再问elasticsearch集群Red怎么办?请把这篇笔记分享给他

前言

可能你经历过这些Red。

。。。等等

那ES的Red是什么意思?

这里说的red,是指es集群的状态,一共有三种,green、red、yellow。具体含义:

冷静分析

从上图可知,集群red是由于有主分片不可用,这种情况一般是由于节点宕机。

有什么影响呢?

至少一个主分片(以及它的全部副本)都在缺失中。这意味着你在缺少数据:搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。

此时我们可以执行相关的命令进行状态检查。

集群节点是否都存在、查看集群状态。

curl -uelastic:pwd -XGET "http://ip:9200/_cluster/health?pretty"

active_shards 是涵盖了所有索引的所有分片的汇总值,其中包括副本分片。

relocating_shards 显示当前正在从一个节点迁往其他节点的分片的数量。通常来说应该是 0,不过在 Elasticsearch 发现集群不太均衡时,该值会上涨。比如说:添加了一个新节点,或者下线了一个节点。

initializing_shards 显示的是刚刚创建的分片的个数。比如,当你刚创建第一个索引,分片都会短暂的处于 initializing 状态,分片不应该长期停留在 initializing 状态。你还可能在节点刚重启的时候看到 initializing 分片:当分片从磁盘上加载后,它们会从 initializing 状态开始。所以这一般是临时状态。

unassigned_shards 是已经在集群状态中存在的分片,但是实际在集群里又找不着。最常见的体现在副本上。比如,我有两个es节点,索引设置分片数量为 10, 3 副本,那么在集群上,由于灾备原则,主分片和其对应副本不能同时在一个节点上,es无法找到其他节点来存放第三个副本的分片,所以就会有 10 个未分配副本分片。如果你的集群是 red 状态,也会长期保有未分配分片(因为缺少主分片)。

unassigned_shards原因1

上面说了一种造成 unassigned_shards的原因,就是副本太多,节点太少,es无法完成分片。

举一反三!由于索引的副本是可以动态修改的,那么,如果在修改时分配的副本数大于节点数目,那么肯定会有分片是这个状态。

这种情况的解决办法有两种:

1、是动态调整一下副本数量。

2、新加入一个节点来平衡。

unassigned还有其他原因?

目前集群爆红,但是所有节点都还在,有点诡异,从集群状态看,一共是两个分片有问题,一个正在初始化,一个是unassigned。确定了故障范围后,我们再来从索引层面、分片层面深入的分析具体原因吧。

索引层面分析

再执行

curl -uelastic:pwd -XGET "http://ip:9200/_cluster/health?pretty&level=indices"

没错,还是这个api,不过值得注意的是level=indices,想必读者已经心领神会。这个api返回的是一个格式化后的json,如果太长,推荐输出到一个文本里面看。

从返回的信息中,我们可以看到,01-04索引目前状态为red,它有2个分片,0个副本,有一个分片正在初始化,从这个数据可以看出,受影响的是主分片,想到这里,感到慌不择路。

分片层面分析

少侠,莫慌!

知道了索引层面的故障信息,我们继续深究,看看分片层面。

curl -uelastic:pwd -XGET "http://ip:9200/_cluster/health?level=shards"

当然,重点还是level=shards,显示如下:

至此,我们可以得到更多的线索:

索引名:xxx-01-04。

分片数量:2。

副本数:0。

有问题的分片号:0。并且是主分片。

分片状态:initializing。说明正在初始化,自我恢复中。

既然是在恢复,那找恢复相关的api,看看。

curl -u elastic:pwd -XGET http://ip:9200/索引名/_recovery?pretty=true

从上图可以看到,花费了14.1个小时,从translog中恢复!目前进度很是堪忧。配合kibana看一下:

插播一下,translog的知识

我们把数据写到磁盘后,还要调用fsync才能把数据刷到磁盘中,如果不这样做在系统掉电的时候就会导致数据丢失,这个原理相信大家都清楚,elasticsearch为了高可靠性必须把所有的修改持久化到磁盘中。

我们的数据先写入到buffer里面,在buffer里面的数据是搜索不到的,同时将数据写入到translog日志文件之中。如果buffer快满了,或是一段时间之后,就会将buffer数据refresh到一个新的OS cache之中。

translog的作用:在执行commit之前,所有的而数据都是停留在buffer或OS cache之中,无论buffer或OS cache都是内存, 一旦这台机器死了,内存的数据就会丢失,所以需要将数据对应的操作写入一个专门的日志文件之中。

一旦机器出现宕机,再次重启的时候,es会主动的读取translog之中的日志文件数据,恢复到内存buffer和OS cache之中。整个commit过程就叫做一个flush操作

其实translog的数据也是先写入到OS cache之中的,默认每隔5秒之中将数据刷新到硬盘中去,也就是说, 可能有5秒的数据仅仅停留在buffer或者translog文件的OS cache中,如果此时机器挂了, 会丢失5秒的数据,但是这样的性能比较好,我们也可以将每次的操作都必须是直接fsync到磁盘,但是性能会比较差。

分析看了日志也没有找到其他有用的信息,由于是历史索引,就将其删除掉了,虽然没有定位到根本原因,不过记录一下排查过程总是好的。

剩下的unassigned分片

解决了一个问题,那么还剩下一个分片是未分配的,还是从索引层面和分片层面查询检查,发现同样是0号主分片出问题。

尝试手动分配

curl -uelastic:pwd -XPOST 'http://ip:9200/_cluster/reroute' -H"Content-Type:application/json" -d '{

"commands" : [ {

"allocate_stale_primary" : {

"index" : "B_2020-01-05",

"shard" : 0,

"node" : "SL8u8zKESy6rSHjHO0jEvA"

}

}

]

}'

报错:

No data for shard [0] of index [B_2020-01-05] found on node [SL8u8zKESy6rSHjHO0jEvA]"},"status":400}

尝试手动分配失败后,更换思路。摆脱掉各种复杂的查询API,使用es为我们提供的一个Explain API,它会解释为什么分片没有分配,解决问题之前,先诊断诊断。

curl -uelastic:pwd -XGET "http://ip:9200/_cluster/allocation/explain" -H"Content-Type:application/json" -d '{

"index": "B_2020-01-05",

"shard": 0,

"primary": true

}'

看上述错误,分片被锁住了,尝试分配,但是被拒绝,手动分配时,可以指定"accept_data_loss" : true。但这样会导致数据完全丢失。

这种情况一般出现在有结点短暂离开集群,然后马上重新加入,并且有线程正在对某个shard做bulk或者scroll等长时间的写入操作。等结点重新加入集群的时候,由于shard lock没有释放,master无法allocate这个shard。

通常/_cluster/reroute?retry_failed=true可以解决问题,如果按照你说的依然无法解决,可能还有其他原因导致锁住该shard的线程长时间操作该shard无法释放锁(长时间GC)。如果retry_failed无法解决问题,可以尝试一下allocate_stale_primary,前提是需要知道这个shard的primary在哪个结点上。实在解决不了,又不想丢数据,还可以重启一下该结点,内存锁应该可以释放。

执行集群reroute命令:

curl -XPOST "http://ip:9200/_cluster/reroute?retry_failed=true"

再看分片状态:

此时集群已经恢复Green。大功告成。

总结

一、遇到集群Red时,我们可以从如下方法排查

集群层面:/_cluster/health。

索引层面:/_cluster/health?pretty&level=indices。

分片层面:/_cluster/health?pretty&level=shards。

看恢复情况:/_recovery?pretty。

二、有unassigned分片的排查思路

_cluster/allocation/explain,先诊断。

/_cluster/reroute尝试重新分配。

三、数据重放

如果实在恢复不了,那只能索引重建了。提供一种思路:

创建a_index_copy索引

curl -XPUT ‘http://xxxx:9200/a_index_copy/‘ -d ‘{

“settings”:{

“index”:{

“number_of_shards”:3,

“number_of_replicas”:2

}

}

}

通过reindex api将a_index数据copy到a_index_copy。

POST _reindex

{

"source": {

"index": "a_index"

},

"dest": {

"index": "a_index_copy",

"op_type": "create"

}

}

删除a_index索引,这个必须要先做,否则别名无法添加

curl -XDELETE 'http://xxxx:9200/a_index'

给a_index_copy添加别名a_index

curl -XPOST 'http://xxxx:9200/_aliases' -d '

{

"actions": [

{"add": {"index": "a_index_copy", "alias": "a_index"}}

]

}'

四、translog总结

translog在节点有问题时,能够帮助阻止数据的丢失

设计目的:

1、帮助节点从失败中快速恢复。

2、辅助flush。避免在flush过程中数据丢失。

以上就是这篇笔记的所有内容,希望能帮助到你。

好看的人才能点

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OYN44BV_iOSnWZRiRNsXoKXQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券