ES磁盘分配不均问题

近es集群磁盘空间告警,日志又没地方可以迁移,然后申请了新的服务器,一次性加入8台新的服务器

新增了32个新的数据节点,至此,我们的主集群已经到达85个数据节点的规模,整个集群数据已达到PB级别,终于可以跟别人炫耀我是做大数据的了。O(∩_∩)O哈哈~

 

但是随着集群节点的不断壮大,问题也随之而来,刚开始加入新节点后,发现所有数据分片都会在新节点上,但是过几天后,发现只有少部分在新节点上。

然后,发现新的数据节点磁盘才使用40%,就不再往这些新节点分配分片了。当时觉得很纳闷。

后来翻翻es文档才发现,es自动均衡是按照分片数来分配的,并不是按照磁盘空间使用率来分配的。顿时恍然大悟。

因为我的集群index是定期关闭的,而且es自动均衡是按照打开的index的分片来自动分配的。所以会导致这种情况

 

我后来的解决办法就是打开所以index,让集群自动均衡一下,然后磁盘空间就慢慢均衡了。

 

有时候会出现如下图磁盘水平线报警问题会导致副本unassigned 

可以在kibana调整es磁盘水平线

put _cluster/settings
{
   "transient":{
       "cluster":{
          "routing":{
               "allocation.disk.watermark.high":"95%",
               "allocation.disk.watermark.low":"90%", 
             }
           }
       }  
}

  

es可以根据磁盘使用情况来决定是否继续分配shard。默认设置是开启的,也可以通过api关闭:cluster.routing.allocation.disk.threshold_enabled: false

在开启的情况下,有两个重要的设置:

cluster.routing.allocation.disk.watermark.low:控制磁盘最小使用率。默认85%.说明es在磁盘使用率达到85%的时候将会停止分配新的shard。也可以设置为一个绝对数值,比如500M.

cluster.routing.allocation.disk.watermark.high:控制磁盘的最大使用率。默认90%.说明在磁盘使用率达到90%的时候es将会relocate shard去其他的节点。同样也可以设置为一个绝对值。

watermark setting可以通过update-api动态修改,默认es每隔30s会收集各个节点磁盘的使用情况,可以cluster.info.update.interval来设置时间间隔。

 

posted on 2018-03-05 11:37  熊哥club  阅读(6660)  评论(0编辑  收藏  举报

熊哥club Fork me on GitHub