单台服务器,往往都有最大的负载能力,超过这个阈值,服务器性能就会大大降低甚至不可用。单点的elasticsearch也是一样,那单点的es服务器存在哪些可能出现的问题呢?
所以,为了应对这些问题,我们需要对elasticsearch搭建集群。
首先,我们面临的第一个问题就是数据量太大,单点存储量有限的问题。我们可以把数据拆分成多份,每一份存储到不同机器节点(node),从而实现减少每个节点数据量。
数据分片解决了海量数据存储的问题,但是如果出现单点故障,那么分片数据就不再完整,这又该如何解决呢?
就像大家为了备份手机数据,会额外存储一份到移动硬盘一样。我们可以给每个分片数据进行备份,存储到其它节点,防止数据丢失,这就是数据备份,也叫数据副本(replica)
。
数据备份可以保证高可用,但是每个分片备份一份,所需要的节点数量就会翻一倍,成本实在是太高了!
为了在高可用和成本间寻求平衡,我们可以这样做:
这样可以大大减少所需要的服务节点数量,如图,我们以3分片,每个分片备份一份为例:
在这个集群中,如果出现单节点故障,并不会导致数据缺失,所以保证了集群的高可用,同时也减少了节点中数据存储量。并且因为是多个节点存储数据,因此用户请求也会分发到不同服务器,并发能力也得到了一定的提升。
集群需要多台机器,我们这里用一台机器来模拟,因此我们需要在一台虚拟机中部署多个elasticsearch节点,每个elasticsearch的端口都必须不一样。 我们计划集群名称为:heima-elastic,部署3个elasticsearch节点,分别是:
接下来的所有操作,记得要使用elastic
用户来操作!
另外,建议先对当前虚拟机进行快照
,以后好恢复成单点结构。
1. 清空elasticsearch中的数据
首先把已经启动的elasticsearch关闭,然后通过命令把之前写入的数据都删除。
1 | rm -rf /elasticsearch/data |
---|
2. 修改elasticsearch配置
进入/home/elastic/elasticsearch/config
目录,修改elasticsearch.yml
文件
1 | vim elasticsearch.yml |
---|
内容修改成这样:
12345678910111213141516171819202122232425262728 | # ======================== Elasticsearch Configuration =========================# 集群名称,三台服务器保持一致cluster.name: heima-elastic## 节点名称,每个节点唯一标识node.name: node-01## 数据目录path.data: /home/elastic/elasticsearch-01/data## 日志目录path.logs: /home/elastic/elasticsearch-01/logs## 绑定的ip,0.0.0.0,代表任意ip地址均可访问network.host: 0.0.0.0## http协议的对外端口http.port: 9201## TCP协议对外端口,一般是集群内部通讯使用transport.tcp.port: 9301# # 集群中其它节点的ip及端口discovery.zen.ping.unicast.hosts: ["127.0.0.1:9301", "127.0.0.1:9302","127.0.0.1:9303"]## 选举主节点时需要看到最少多少个具有master资格的活节点,才能进行选举。官方的推荐值是(N/2)+1# 即最少具备多少个个节点还能提供服务discovery.zen.minimum_master_nodes: 2 |
---|
3. 复制elasticsearch节点
回到 /home/elastic
目录,将elasticsearch
目录修改为ealsticsearch-01
:
1 | mv elasticsearch elasticsearch-01 |
---|
然后输入下面命令,拷贝两份elasticsearch实例:
12 | cp -r elasticsearch-01 elasticsearch-02cp -r elasticsearch-01 elasticsearch-03 |
---|
进入elasticsearch-02/config目录,修改elasticsearch.yml中的下列配置:
1234567891011121314 | # 节点名称node.name: node-02## 数据目录path.data: /home/elastic/elasticsearch-02/data## 日志目录path.logs: /home/elastic/elasticsearch-02/logs## http协议的对外端口http.port: 9202## TCP协议对外端口transport.tcp.port: 9302 |
---|
注意到,注意是把01
改成了02
,但不是所有,切勿自动全局替换!
同理,进入elasticsearch-3/config/
,修改elasticsearch.yml
文件,与上面类似,不过修改成03
。
4. 启动并测试
分别启动3台elasticsearch,可以用后台启动方式(要使用elastic
用户来操作):
123 | ./elasticsearch-01/bin/elasticsearch -d./elasticsearch-02/bin/elasticsearch -d./elasticsearch-03/bin/elasticsearch -d |
---|
通过启动运行chrome的 elasticsearch-head插件,可以查看到节点信息:
5. 启动错误
启动错误1:
原因是:是因为复制的elasticsearch文件夹下包含了data文件中示例一的节点数据,需要把示例二data文件下的文件清空。删除es集群data数据库文件夹下所有文件即可。
启动错误2:
由于elasticsearch6.8默认分配jvm空间大小为1g,虚拟机内存不够大,修改jvm空间分配128m或256m、512m,最少需要128m。
6. 集群健康
可以通过elasticsearch-head插件查看集群健康状态,有以下三个状态:
yellow
想象成一个需要及时调查的警告。搭建集群以后就要创建索引库了,那么问题来了,当我们创建一个索引库后,数据会保存到哪个服务节点上呢?如果我们对索引库分片,那么每个片会在哪个节点呢? 这个要亲自尝试才知道。还记得创建索引库的API吗?
12345 | { "settings": { "属性名": "属性值" }} |
---|
settings:就是索引库设置,其中可以定义索引库的各种属性,目前我们可以不设置,都走默认。 这里给搭建看看集群中分片和备份的设置方式,示例:
1234567 | PUT /heima3{ "settings": { "number_of_shards": 3, "number_of_replicas": 1 }} |
---|
这里有两个配置:
通过chrome浏览器的head查看,我们可以查看到分片的存储结构:
可以看到,heima这个索引库,有三个分片,分别是0、1、2,每个分片有1个副本,共6份。