mysql分页优化

有个200多万的用户表,显示列表时非常慢,查了一下原来使用了limit进行分页。
前几页用时很少

但是后面页数就简直不可忍了,实际的业务逻辑还有排序,就更慢了

试试用查询时用带索引的键来确定范围。

最大的id是103948598

时间和用limit比相差几千倍啊!
使用explain 查看一下
mysql> explain SELECT * from users LIMIT 2000000,50;
+----+-------------+-------+------+---------------+------+---------+------+---------+-------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+-------+------+---------------+------+---------+------+---------+-------+
| 1 | SIMPLE | users | ALL | NULL | NULL | NULL | NULL | 2839456 | |
+----+-------------+-------+------+---------------+------+---------+------+---------+-------+
1 row in set

mysql> EXPLAIN SELECT * from users WHERE uid <= 103948598 and uid > 103948598 -50;
+----+-------------+-------+-------+---------------+---------+---------+------+------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+-------+-------+---------------+---------+---------+------+------+-------------+
| 1 | SIMPLE | users | range | PRIMARY | PRIMARY | 8 | NULL | 98 | Using where |
+----+-------------+-------+-------+---------------+---------+---------+------+------+-------------+
1 row in set

可以看到 limit是扫描了所有行,再按照需要返回指定范围的行,而使用uid时仅仅是扫描了指定范围的行。
所以用uid来确定范围就很稳定,而limit时,随着页数变大,就变的很慢了。

另外还可以使用缓存来优化,请见redispage


作者:半山
出处:http://www.cnblogs.com/xdao/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

posted @ 2017-04-14 09:35  半山th  阅读(155)  评论(0编辑  收藏  举报