在Elasticsearch的日常使用过程中,常常会碰到如下问题:
对于第1个问题,在7.x版本的集群中比较常见,因为所以默认只有1分片1副本,该问题的一种解决方式就是切换一个新的索引进行写入,提高新的索引的分片数量(最好保持为节点数量的倍数),使得写入并行度提高,从而提高写入吞吐率。
第2个问题往往出现在以下场景中:
但是如果业务端不能修改写入的索引名称,或者是无法更新诸如logstash、filebeat的配置文件并进行重启,这时候该怎么办呢?
既然业务端不能有任何变更,那就不能够直接使用索引别名了,因为对于已经存在的索引,是无法创建同名称的别名的。当然,如果业务端一开始使用的就是别名,那就另当别论了,直接修改is_write_index配置项就可以切换索引了。
所以,对于业务端不能有任何变更,但是需要切换索引写入的场景,我们可以使用ES的default pipeline 来实现索引的重定向: 写入时指定了一个索引,实际上写入到了另外一个索引。
default pipeline与final pipeline实际上都是普通的ingest pipeline,只是和一般的pipeline执行时机不同;default pipeline的执行时机是当前写入请求没有指定pipeline时,final pipeline的执行时机是在所有pipeline执行完毕后,具体如图所示:
如果当前bulk或者index请求指定了pipeline参数,则会先执行自定义的普通pipeline,所有的pipelie执行完毕后在执行final pipeline(如果索引的显式的设置了index.final_pipeline);如果当前bulk或者index请求没有指定pipeline,当索引显式的设置了index.default_pipeline参数时,则会先执行default pipeline,然后再执行final pipeline。
使用set ingest processor可以对当前写入的索引名称_index字段进行重新赋值, 如下图所示:
因此我们可以创建一个pipeline, 将其配置为当前正在写入的索引的default pipeline,从而实现把所以重定向写入到另外一个索引中:
PUT _ingest/pipeline/redirect
{
"description": "_description",
"processors": [
{
"set": {
"field": "_index",
"value": "new_index"
}
}
]
}
PUT test/_settings
{
"index.default_pipeline": "redirect"
}
经过上述设置后,可以发现,向test索引写入的数据已经全部写入到了new_index索引。
为什么不用final pipeline呢?因为final pipeline强制要求不能进行索引的重新命名(可能因为需要避免出现循环)。
使用default pipeline,使得在业务端不用做任何变更的情况下,将数据写入到一个新的索引中去,但是该方式还存在以下问题: