非root用户下的ES集群搭建及Kibana安装
一、ES集群搭建(基于tar包)
搭建前的准备:由于我这是单机上搭建ES集群,先创建三个目录分别代表三个ES节点
cd ~ ### ~ 为当前用户的操作根目录,我这里是 /home/linux804
mkdir {es_01,es_02,es_03}
1.解压安装包
tar -zxvf elasticsearch-6.1.3.tar.gz
2.修改es节点配置文件
在/home/linux804/es_01/elasticsearch-6.1.3/目录下创建data目录和logs目录
cd ~/es_01/elasticsearch-6.1.3/
mkdir {data,logs}
vim /home/linux804/es_01/elasticsearch-6.1.3/config/elasticsearch.yml
单机上搭建集群,通过端口来区分不同的节点
cluster.name: es-cluster ### 集群名称
node.name: es-node-01 ### 节点名称,仅仅是描述名称,用于在日志中区分
node.master: true ### 主节点资格
node.data: true
node.max_local_storage_nodes: 3
network.host: 192.168.112.129 ### 当前节点的IP地址
http.port: 9201 ### 对外提供服务的端口,9300为集群服务的端口
transport.tcp.port: 9301
discovery.zen.ping.unicast.hosts: ["192.168.112.129:9301", "192.168.112.129:9302","192.168.112.129:9303"] ### 集群个节点IP地址,也可以使用els、els.shuaiguoxia.com等名称,需要各节点能够解析
discovery.zen.minimum_master_nodes: 2 ### 为了避免脑裂,集群节点数最少为 半数+1
path.data: /home/linux804/es_01/elasticsearch-6.1.3/data
path.logs: /home/linux804/es_01/elasticsearch-6.1.3/logs
注意
- ES集群的集群名 每个节点的配置必须相同,节点名必须不相同
3.启动es
### 启动前需要切换到root用户进行一些配置
### 1.设置vm.max_map_count的值为262144
vim /etc/sysctl.conf
### 添加以下配置信息
vm.max_map_count=262144
### 2.将当前用户的软硬限制调大
vim /etc/security/limits.conf
### 添加以下配置信息
linux804 soft nofile 65535
linux804 hard nofile 65537
### ########################################################
#### 配置完成,启动es
cd ~/elasticsearch-6.1.3/bin/
./elasticsearch -d #后台启动
二、Kibana安装(tar包)
1.解压安装包
cd ~
### 上传kibana的tar包并解压
tar -zxvf kibana-6.1.3-linux-x86_64.tar.gz
2.修改配置文件
server.port: 5601 ### 监听端口
server.host: "192.168.112.129" ### 监听IP地址,建议内网ip
server.name: "es-cluster-kibana"
elasticsearch.url: "http://192.168.112.129:9201" ### elasticsearch连接kibana的URL,
3.启动kibana
cd ~/kibana-6.1.3-linux-x86_64/bin
./kibana
kibana默认是这种前台启动的方式启动,但这种启动方式,会在终端关闭的同时程序也会关闭。
- 后台启动的方式
### 在/home/linux804/kibana/kibana-6.1.3-linux-x86_64/目录下创建logs目录并在其下创建日志文件 用于存放kibana的日志
mkdir logs
touch kibana.log
### ####后台启动#######
nohup ./kibana > /home/linux804/kibana/kibana-6.1.3-linux-x86_64/logs/kibana.log 2>&1 &

浙公网安备 33010602011771号