第一篇: es 部署(单机) 第二篇: es 部署(集群) 第三篇 kibana 部署(单机) 第四篇 kibana 部署(集群)
请先参考 第一篇 es单机搭建
修改 elasticsearch.yml 配置文件 vi /es/elasticsearch.7.9.1/config/elasticsearch.yml #集群名称 cluster.name: cluster_es #节点名称 node.name: node1 #是不是有资格主节点 node.master: true #是否存储数据 node.data: true #最大集群节点数 node.max_local_storage_nodes: 3 network.host: 192.168.124.41 #端口 http.port: 9200 #内部节点之间沟通端口 不配置 默认是9300 则discovery.seed_hosts: ["192.168.124.41:9300","192.168.124.42:9300","192.168.124.43:9300"] transport.tcp.port: 9700 #es7.x 之后新增的配置,节点发现 discovery.seed_hosts: ["192.168.124.41:9700","192.168.124.42:9800","192.168.124.43:9900"] #es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master cluster.initial_master_nodes: ["node1", "node2","node3"] #数据和存储路径 path.data: /data path.logs: /logs #数据和存储路径 /data和/logs 记得创建并给ususer授权 path.data: /data path.logs: /logs 创建文件夹 并授权 #切换root用户 sudo -i #创建 data 和logs mkdir /data mkdir /logs #授权 chown -R esuser /data chown -R esuser /logs 这个时候我们可以来启动我们的ES节点1,我们可以发现我们started,启动成功,同时可以从日志中看 到: master not discovered yet 。也就是还没有发现主节点 这个时候我们去启动我们早就准备好的第二台集群,我们先来进行我们配置文件的设置,我们的配置文 件只需要更改我们的端口号。启动一下。 #集群名称 cluster.name: cluster_es #节点名称 node.name: node2 #是不是有资格主节点 node.master: true #是否存储数据 node.data: true #最大集群节点数 node.max_local_storage_nodes: 3 #ip地址 你的IP地址,请自行配置 network.host: 192.168.124.42 #端口 http.port: 9200 #内部节点之间沟通端口 不配置 默认是9300 则discovery.seed_hosts: ["192.168.124.41:9300","192.168.124.42:9300","192.168.124.43:9300"] transport.tcp.port: 9800 #es7.x 之后新增的配置,节点发现 discovery.seed_hosts: ["192.168.124.41:9700","192.168.124.42:9800","192.168.124.43:9900"] #es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master cluster.initial_master_nodes: ["node1", "node2","node3"] #数据和存储路径 path.data: /data path.logs: /logs可以从日志中看到:master not discovered yet。还没有发现主节点 .master node changed.已经选举 出主节点 current【node2】 访问集群状态信息 http://192.168.124.41:9200/_cat/health?v 成功
健康状况结果解释: cluster 集群名称 status 集群状态 green代表健康; yellow代表分配了所有主分片,但至少缺少一个副本,此时集群数据仍旧完整; red 代表部分主分片不可用,可能已经丢失数据。 node.total代表在线的节点总数量 node.data代表在线的数据节点的数量 shards 存活的分片数量 pri 存活的主分片数量 正常情况下 shards的数量是pri的两倍。 relo迁移中的分片数量,正常情况为 0 init 初始化中的分片数量 正常情况为 0 unassign未分配的分片 正常情况为 0 pending_tasks准备中的任务,任务指迁移分片等 正常情况为 0 max_task_wait_time任务最长等待时间 active_shards_percent正常分片百分比 正常情况为 100%这个时候我们就可以启动我们的第三个ES节点, 第三台服务器配置文件
#集群名称 cluster.name: cluster_es #节点名称 node.name: node3 #是不是有资格主节点 node.master: true #是否存储数据 node.data: true #最大集群节点数 node.max_local_storage_nodes: 3 #ip地址 你的IP地址,请自行配置 network.host: 192.168.124.43 #端口 http.port: 9200 #内部节点之间沟通端口 不配置 默认是9300 则discovery.seed_hosts: ["192.168.124.41:9300","192.168.124.42:9300","192.168.124.43:9300"] transport.tcp.port: 9900 #es7.x 之后新增的配置,节点发现 discovery.seed_hosts: ["192.168.124.41:9700","192.168.124.42:9800","192.168.124.43:9900"] #es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master cluster.initial_master_nodes: ["node1", "node2","node3"] #数据和存储路径 path.data: /data path.logs: /logs启动完成之后,我们去访问 集群状态信息 http://192.168.124.141:9200/_cat/health?v 成功。 我们这个时候就能够看到集群的节点数已经变成了三个,我们的ES集群就已经成功搭建了