Elasticsearch 分片集群原理、搭建、与SpringBoot整合
Elasticsearch 分片集群原理、搭建、与SpringBoot整合
单机es可以用,没毛病,但是有一点我们需要去注意,就是高可用是需要关注的,一般我们可以把es搭建成集群,2台以上就能成为es集群了。集群不仅可以实现高可用,也能实现海量数据存储的横向扩展。
新的阅读体验地址: http://www.zhouhong.icu/post/138
一、Elasticsearch分片机制:
- 每个索引可以被分片,每个主分片都包含索引的数据。
- 副本分片是主分片的备份,主挂了,备份还是可以访问,这就需要用到集群了。
- 同一个分片的主与副本是不会放在同一个服务器里的,因为一旦宕机,这个分片就没了。
如下图:左边每个索引主备分片都会分配在三台服务器上的不同节点上面,右图粗方框表示主分片,细节点表示备节点。
二、搭建Elasticsearch集群
1、前置操作
- ES中之前的data目录,一定要清空,这里面包含了原先的索引库数据。
- 使用三台服务器:
- 192.168.1.184(主), 192.168.1.185(从), 192.168.1.186(从)
- 关于Elasticsearch单机的简介、安装配置请转到:http://www.zhouhong.icu/post/128
2、配置集群
- 修改每台服务器上ES的elasticsearch.yml这个配置文件如下,每台服务器node.name不一样分别为es-node1、es-node2、es-node3.
# 配置集群名称,保证每个节点的名称相同,如此就能都处于一个集群之内了 cluster.name: es-cluster # 每一个节点的名称,必须不一样 node.name: es-node1 # http端口(使用默认即可) http.port: 9200 # 主节点,作用主要是用于来管理整个集群,负责创建或删除索引,管理其他非master节点(相当于企业老总) node.master: true # 数据节点,用于对文档数据的增删改查 node.data: true # 集群列表 discovery.seed_hosts: ["192.168.1.184", "192.168.1.185", "192.168.1.186"] # 启动的时候使用一个master节点,未指定ES会进行选举 cluster.initial_master_nodes: ["es-node1"]
3、最后可以通过如下命令查看配置文件的内容:(过滤掉“#”后面的注释)
more elasticsearch.yml | grep ^[^#]
4、切换到esuser后启动,访问集群各个节点,查看信息:
- http://192.168.1.184:9200/
- http://192.168.1.185:9200/
- http://192.168.1.186:9200/
三、Elasticsearch集群脑裂现象
1、什么是脑裂
- 如果发生网络中断或者服务器宕机,那么集群会有可能被划分为两个部分,各自有自己的master来管理,那么这就是脑裂。
2、脑裂解决方案
- master主节点要经过多个master节点共同选举后才能成为新的主节点。就跟班级里选班长一样,并不是你1个人能决定的,需要班里半数以上的人决定。
- 解决实现原理:半数以上的节点同意选举,节点方可成为新的master。
discovery.zen.minimum_master_nodes=(N/2)+1
- N为集群的中master节点的数量,也就是那些 node.master=true 设置的那些服务器节点总数。
3、ES 7.X
- 在最新版7.x中,minimum_master_node这个参数已经被移除了,这一块内容完全由es自身去管理,这样就避免了脑裂的问题,选举也会非常快。‘’
四、Elasticsearch集群的文档读写原理
-
文档写原理:p1,p2,p0是主节点,r0,r1,r2是副本节点
- 如果客户端选择了中间节点进行写数据,那这个节点就会变成协调节点,接受用户请求,会对文档进行路由,计算这个文档会写入到哪个主分片中,有主分片把数据同步到副本分片,都写入完成之后,在跳回到协调节点,由协调节点相应请求。
-
文档读原理:p1,p2,p0是主节点,r0,r1,r2是副本节点
- 如果客户端请求到了第一个节点,那第一个节点也会变成协调节点,然后根据文档的数据进行路由,然后从主分片或者副本分片轮询读数据。不管从主分片还是副本分片读取数据,最后都会跳回到协调节点,由协调节点相应客户端
五、Elasticsearch集群与SpringBoot整合
1、创建工程,引入依赖
<dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-elasticsearch</artifactId> <version>2.2.2.RELEASE</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency>
2、配置yml文件:客户端连接的是 9300
spring: data: elasticsearch: cluster-name: es-cluster cluster-nodes: 192.168.1.184:9300,192.168.1.185:9300,192.168.1.186:9300
3、解决启动时 Netty issue fix 问题
@Configuration public class ESConfig { /** * 解决netty引起的issue */ @PostConstruct void init() { System.setProperty("es.set.netty.runtime.available.processors", "false"); } }