MongoDB 性能瓶颈分析 (转载)

原文链接:http://www.cxyclub.cn/n/13970/

  • 摘要:一、前情简介半个月前,公司的MongoDB压力由于用户量暴增导致压力急剧增加,读写能力下降。因为对于Mongos的集群分片机制的了解和测试还不是很充分,所以开始使用最简单的办法来解决:提高配置。众所周知,MongoDB是出了名的吃内存。当时定义出来提高MongoDB的办法很简单,插内存。但是由于机房问题,插内存需要拔电源,导致停止产品的服务,所以经过研究后。用我们备用的R71064GB内存服务器来替代线上的R41032GB内存的服务器。二、操作方式(1)首先是确认防火墙,端口是否开放
  • 标签:分析 MongoDB
一、前情简介 

半个月前,公司的MongoDB压力由于用户量暴增导致压力急剧增加,读写能力下降。 
因为对于Mongos 的集群分片机制的了解和测试还不是很充分,所以开始使用最简单的办法来解决:提高配置。 
众所周知,MongoDB是出了名的吃内存。当时定义出来提高MongoDB的办法很简单,插内存。 
但是由于机房问题,插内存需要拔电源,导致停止产品的服务,所以经过研究后。 
用我们备用的R710 64GB内存服务器来替代线上的R410 32GB内存的服务器。 

二、操作方式 

(1)首先是确认防火墙,端口是否开放,MongoDB1.82升级2.02安装成功,所有操作在内网进行。 
(2)使用Rsync将R410服务器的MongoDB主库数据同步到R710中。 
同步结束之后,删除R710本地Local文件。以从库模式启动,开始同步R410中MongoDB主库的数据。 
在同步延时在1s左右。确认数据及时同步。 
(3)在确认数据同步后,切断所有数据库Write操作的入口。使MongoDB主库的数据不再出现变动。 
这之后确认从库的数据已经与主库完全同步。进入主库,shutDownServer()。停止主库服务。 
然后进入从库,shutDownServer。停止从库服务。 
然后再将R710中的从库以主库的模式重新启动。这时同时切换所有访问数据库程序的Hosts。使其从R410的主机IP指向到R710的主机IP。这时启动所有服务。 

三、启动后的惊心动魄 

启动服务之后,MongoDB并没有像我们想象中的疯狂的占用内存,起初只是占用了2.5G左右的内存。 
用户在频繁的访问数据库,通过MongoStat观察到。用户的QR和QW也就是读写队列不停堆积。Locked值居高不下。 
明显是处理不过来。创建的conn连接数越来越多,导致客户端频繁的出发TimeOut。 
最后甚至引起了MongoDB锁死,不再执行任何操作。写入队列堆积到20000+。 
之后进行查询,网上说MongoDB2.02 + R710需要在启动参数中追加numactl --interleave=all 。
经过添加后,松了一口气,因为无效。 
之后的几天频繁出现问题,MongoDB占用内存最高只打到5GB的热点数据。 
在昨天中午数据库彻底锁死宕机。 
问题被定位在R710的硬件设备不兼容上。 
被迫在白天的时候重新操作了一次之前的工作,将数据库迁移回R410。 
在晚上的时候进行观测,发现数据依然不够理想。还是一样的效果。 
之后开始怀疑是因为MongoDB1.82升级到2.02导致的问题,开始查阅资料。但是依然毫无进展。 

四、一些性能优化 

之后进行Nginx和MongoDB的log观察。发现每分钟大概14000的动态请求。而MongoDB的log一直在展示一些可怕的慢查询,最长的一次竟然有370秒! 
MonogoDB有个很坑爹的地方就Auth验证,我之前的日志还描述过这个东西,但是没想到每次创建连接时的密码验证竟然成了瓶颈所在。希望大家慎用。可以选择封闭MongoDB所在主机的外网IP,然后使用内网无密码访问最佳。 
之后进行服务器性能优化,在频繁调用的几个接口紧急使用缓存来缓解问题。而一些不重要不需要及时更新的查询则切换到从库进行查询。并切掉了一些需要及时更新的数据接口也访问从库,需要mark下数据库缓解后再调整回去。 
经过追查每一个表的索引发现,数据表中有很多冗余索引,有一些没有作为索引条件查询,有一些已经被建为联合索引,却依然没有删除掉。果断Drop掉这些Index。 
这之后数据的读写队列在300-1000左右,依然是不健康的状态。 

五、再一次定位问题 

这之后MongoDB一直在不健康的状态但是并没有再一次宕机。不过危险依然存在。 
MongoDB的占用的内存热点数据依然是5GB左右。崩溃了。 
定位问题到MongoDB的数据由于不在内存中,所以导致读写速度障碍。 
写了一段Java程序进行R710数据库数据循环插入,希望能测试出是否可以提高内存占用量。 
果然,结果是插入一段时间之后。MongoDB的内存占用已经到达36GB。理想中的结果。 
不过线上环境不能随便插入数据,所以使用python写了一段全表扫描数据的脚本执行。 
结果竟然无效。 
推论是插入会直接放入热点中,查询可能是需要经历一段时间和几次的命中才会。坑爹。 
目前能做的就是等待,等待MongoDB的热点内存占用提高,才能缓解所有问题。直到Mongos测试OK

六、其实。。最重要的地方在这里 

问题主因就是优化不足,还轻率的进行了数据库切换。 
MongoDB在R410时候运行,所有的热点数据在内存映射Mapping。而R710没有,需要再规则下重新进行映射。 
最坑爹的就是这里。这段时间需要很久。而数据库重启导致用户重连服务,暴起的连接数和请求数直接压垮数据库。 
甚至会导致数据库启动就宕机的危险。 

七、动作要谨慎。Over 
posted @ 2012-03-05 16:56  Mr...Liu  阅读(2947)  评论(1编辑  收藏  举报