前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >内存吞金兽(Elasticsearch)的那些事儿 -- 架构&三高保证

内存吞金兽(Elasticsearch)的那些事儿 -- 架构&三高保证

作者头像
房上的猫
发布2021-08-31 17:57:14
4990
发布2021-08-31 17:57:14
举报
文章被收录于专栏:个人随笔个人随笔

系列目录

内存吞金兽(Elasticsearch)的那些事儿 -- 认识一下

内存吞金兽(Elasticsearch)的那些事儿 -- 数据结构及巧妙算法

内存吞金兽(Elasticsearch)的那些事儿 -- 架构&三高保证

内存吞金兽(Elasticsearch)的那些事儿 -- 写入&检索原理

内存吞金兽(Elasticsearch)的那些事儿 -- 常见问题痛点及解决方案

架构图

Gateway

代表ElasticSearch索引的持久化存储方式。

在Gateway中,ElasticSearch默认先把索引存储在内存中,然后当内存满的时候,再持久化到Gateway里。当ES集群关闭或重启的时候,它就会从Gateway里去读取索引数据。比如LocalFileSystem和HDFS、AS3等。

DistributedLucene Directory

是Lucene里的一些列索引文件组成的目录。它负责管理这些索引文件。包括数据的读取、写入,以及索引的添加和合并等。

River

代表是数据源。是以插件的形式存在于ElasticSearch中。 

Mapping

映射的意思,非常类似于静态语言中的数据类型。比如我们声明一个int类型的变量,那以后这个变量只能存储int类型的数据。

eg:比如我们声明一个double类型的mapping字段,则只能存储double类型的数据。

Mapping不仅是告诉ElasticSearch,哪个字段是哪种类型。还能告诉ElasticSearch如何来索引数据,以及数据是否被索引到等。

Search Moudle

搜索模块

Index Moudle

索引模块

Disvcovery

代码语言:txt
复制
 主要是负责集群的master节点发现。比如某个节点突然离开或进来的情况,进行一个分片重新分片等。

  (Zen)发现机制默认的实现方式是单播和多播的形式,同时也支持点对点的实现。以插件的形式存在EC2。

一个基于p2p的系统,它先通过广播寻找存在的节点,再通过多播协议来进行节点之间的通信,同时也支持点对点的交互。

Scripting

脚本语言。包括很多。如mvel、js、python等。   

定制化功能非常便捷,但有性能问题

Transport

代码语言:txt
复制
代表ElasticSearch内部节点,代表跟集群的客户端交互。包括 Thrift、Memcached、Http等协议

RESTful Style API

通过RESTful方式来实现API编程。

3rd plugins

第三方插件,(想象一下idea或vscode的插件

Java(Netty)

开发框架。其内部使用netty实现

JMX

监控

部署节点

  • master
  • index node(也是coordinating node
  • coordinating node

三高保证

  1. 一个es集群会有多个es节点
  2. 在众多的节点中,其中会有一个Master Node,主要负责维护索引元数据、负责切换主分片和副本分片身份等工作,如果主节点挂了,会选举出一个新的主节点
代码语言:txt
复制
1. 如果某个节点挂了,`Master Node`就会把对应的副本分片提拔为主分片,这样即便节点挂了,数据就不会丢。es最外层的是Index(相当于数据库 表的概念);一个Index的数据我们可以分发到不同的Node上进行存储,这个操作就叫做
代码语言:txt
复制
1. 比如现在我集群里边有4个节点,我现在有一个Index,想将这个Index在4个节点上存储,那我们可以设置为4个分片。这4个分片的数据**合起来**就是Index的数据
2. 分片会有主分片和副本分片之分(防止某个节点宕机,保证高可用)
3.  Index需要分为多少个分片和副本分片都是可以通过配置设置的
为什么需要分片?
代码语言:txt
复制
- 如果一个Index的数据量太大,只有一个分片,那只会在一个节点上存储,随着数据量的增长,一个节点未必能把一个Index存储下来。
- 多个分片,在写入或查询的时候就可以并行操作(从各个节点中读写数据,提高吞吐量)

分词器:

在分词前我们要先明确字段是否需要分词,不需要分词的字段将type设置为keyword,可以节省空间和提高写性能。

1)es的内置分词器

常用的三种分词:Standard AnalyzerSimple Analyzerwhitespace Analyzer

standard 是默认的分析器,英文会按照空格切分,同时大写转小写,中文会按照每个词切分

simple 先按照空格分词,英文大写转小写,不是英文不再分词

Whitespace Analyzer 先按照空格分词,不是英文不再分词,英文不再转小写

2)第三方分词器

es内置很多分词器,但是对中文分词并不友好,例如使用standard分词器对一句中文话进行分词,会分成一个字一个字的。这时可以使用第三方的Analyzer插件,分别是HanLP,IK,Pinyin分词器三种;

  • HanLP-面向生产环境的自然语言处理工具包,支持有多重分词配置
代码语言:txt
复制
   两个官网分词例子测试效果,分词效果较内置的分词有很大明显,可以支持中文的词语分词;
  • IK分词器:
代码语言:txt
复制
     可以根据粒度拆分
代码语言:txt
复制
`ik_smart`: 会做最粗粒度的拆分
代码语言:txt
复制
`ik_max_word`: 会将文本做最细粒度的拆分
代码语言:txt
复制
   如果是最细粒度,我是中国人,会被分词为我,是,中国人,中国,国人,相对于Hanlp的分词更加准确和多样;
  • PinYin
代码语言:txt
复制
   会对特定的信息进行分词,对用户搜索有更好的体验,该分词会对汉字的首字母进行分词,例如刘德华,会被分词为ldh,张学友,会被分词为zxy,用户根据拼音首字母就可以搜索出对应的特定信息。
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2021-08-25 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 系列目录
    • 架构图
      • Gateway
      • DistributedLucene Directory
      • River
      • Mapping
      • Search Moudle
      • Index Moudle
      • Disvcovery
      • Scripting
      • Transport
      • RESTful Style API
      • 3rd plugins
      • Java(Netty)
      • JMX
    • 部署节点
      • 三高保证
        • 分词器:
    相关产品与服务
    Elasticsearch Service
    腾讯云 Elasticsearch Service(ES)是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack。ES 支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的 Serverless 模式。使用 ES 您可以高效构建信息检索、日志分析、运维监控等服务,它独特的向量检索还可助您构建基于语义、图像的AI深度应用。
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档