如何正确地显示随机消息?

从业务当中的一个性能问题的引入

现在有一个英语学习App首页有一个随机显示单词的功能,也就是根据每个用户的级别有一个单词表,然后这个用户每次访问首页的时候,都会随机滚动显示三个单词。他们发现随着单词表变大,选单词这个逻辑变得越来越慢,甚至影响到了首页的打开速度。

现在问题来了,如果我们要设计这个SQL语句,我们应该如何设计?

为了便于理解,我们对这个例子进行简化:去掉每个级别的用户都有一个对应的单词表这个逻辑,直接就是从一个单词表中随机选出三个单词。这个表的建表语句和初始数据的命令如下:

CREATE TABLE words (
id INT(11) AUTO_INCREMENT PRIMARY KEY,
word VARCHAR(64) DEFAULT NULL
) ENGINE = InnoDB;

 为了便于快速插入数据,下面给出了存储过程的定义,完成了向表中插入了10000行记录。

DELIMITER $$
CREATE PROCEDURE idata()
BEGIN
    DECLARE i INT;
    SET i = 0;
    WHILE i < 10000 DO
        INSERT INTO words(word) VALUES(CONCAT(CHAR(97+(i DIV 1000)), CHAR(97+(i % 1000 DIV 100)), CHAR(97+(i % 100 DIV 10)), CHAR(97+(i % 10))));
        SET i = i + 1;
    END WHILE;
END $$
DELIMITER ;

CALL idata();

接下来,我们就一起看看要随机选择3个单词,有什么方法实现,存在什么问题以及如何改进。

内存临时表

首先,你会想到用order by rand()来实现这个逻辑:

SELECT word
FROM words
ORDER BY RAND() 
LIMIT 3;

这个语句的意思很直白,随机排序取前3个。虽然这个SQL语句写法很简单,但执行流程却是有点复杂的。

我们先用explain命令来看看这个语句的执行情况:

使用explain命令查看语句的执行情况

Extra字段显示Using temporary,表示的是需要使用临时表;Using filesort,表示的是需要执行排序操作。

因此这个Extra的意思就是,需要临时表,并且需要在临时表上排序。这里先给出上一篇博客当中全字段排序与rowid排序的执行流程图:

全字段排序
rowid排序

这里再思考一个问题,对于临时内存表的排序来说,会选择哪一种算法呢?我们在上一篇博客中分析到了,对于InnoDB表,采用全字段排序会减少磁盘访问,因此会被优先选择。

这里强调了"InnoDB表",我们肯定可以想到,对于内存表,回表过程只是简单地根据数据行的位置,直接访问内存得到数据,根本不会导致大量的磁盘访问。优化器没有了这一层顾虑,那么它会优先考虑的因素就是,用于排序的行越小越好了,所以,MySQL这时就会选择rowid排序。

理解了算法选取的逻辑,我们再来分析语句的执行流程。同时,通过今天的这个例子,我们来分析一下语句的扫描行数。

这条语句的执行流程是这样的:

  • 创建一个临时表。这个临时表使用的是memory引擎,表里有两个字段,第一个字段是double类型,为了描述方便,记为字段R,第二个字段是varchar(64)类型,记为字段W。并且,这个表没有建索引。
  • 从words表中,按主键顺序取出所有的word值。对于每一个word值,调用rand()函数生成一个大于0小于1的随机小数,并把这个随机小数和word分别存入临时表的R和W字段中,到此,扫描行数是10000。
  • 现在临时表有10000行数据了,接下来你要在这个没有索引的内存临时表上,按照字段R排序。
  • 初始化sort_buffer。sort_buffer中有两个字段,一个是double类型,另一个是整型。
  • 从内存临时表中一行一行地取出R值的位置信息(后面解释"位置信息"),分别存入sort_buffer中的两个字段里。这个过程要对内存临时表做全表扫描,此时扫描行数增加10000,变成了20000。
  • 在sort_buffer中根据R的值进行排序。注意,这个过程没有涉及到表操作,所以不会增加扫描行数。
  • 排序完成后,取出前三个结果的位置信息,依次到内存临时表中取出word值,返回给客户端。这个过程中,访问了表的三行数据,总扫描行数变成了20003。

接下来,我们通过慢查询日志(slow log)来验证一些我们分析得到的扫描行数是否正确。

# Query_time: 0.900376  Lock_time: 0.000347 Rows_sent: 3 Rows_examined: 20003
SET timestamp=1541402277;
select word from words order by rand() limit 3;

其中,Rows_examined:20003就表示这个语句执行过程中扫描了20003行,也就验证了我们分析得出的结论。我们在平时学习中,也可以经常这么做,先通过原理分析算出扫描行数,然后再通过查看慢查询日志,来验证自己的结论。

现在,给出完整的排序执行流程图:

随机排序完整流程图

图中的pos就是位置信息,你可能会觉得奇怪,这里的"位置信息"是个什么概念?在上一篇博客中,我们对InnoDB表排序的时候,明明用的还是ID字段。

这个时候,我们就要回到一个基本概念:MySQL的表是用什么方法来定位"一行数据"的。

我们在讲深入浅出索引的两篇文章中,有这样的问题:如果把一个InnoDB表的主键删掉,是不是就没有主键,就没办法回表了?

其实不是的。如果你创建的表没有主键,或者把一个表的主键删掉了,那么InnoDB会自己生成一个长度为6字节的rowid来作为主键。这也就是排序模式里面,rowid名字的来历。实际上它表示的是:每个引擎用来唯一标识数据行的信息。

  • 对于有主键的InnoDB表来说,这个rowid就是主键ID。
  • 对于没有主键的InnoDB表来说,这个rowid就是由系统生成的。
  • MEMORY引擎不是索引组织表。在这个例子里面,你可以认为它就是一个数组。因此,这个rowid其实就是数组的下标。

到这里,稍微小结一下:order by rand()使用了内存临时表,内存临时表排序的时候使用了rowid排序方法。

磁盘临时表

那么,是不是所有的临时表都是内存表呢?

其实不是的。tmp_table_size这个配置限制了内存临时表的大小,默认值的16M。如果临时表大小超过了tmp_table_size,那么内存临时表就会转成磁盘临时表。

磁盘临时表使用的引擎默认是InnoDB,是由参数internal_tmp_disk_storage_engine控制的。

当使用磁盘临时表的时候,对应的就是一个没有显式索引的InnoDB表的排序过程。

为了复现这个过程,我把tmp_table_size设置成1024,把sort_buffer_size设置成32768,把max_length_for_sort_data设置成16。

set tmp_table_size=1024;
set sort_buffer_size=32768;
set max_length_for_sort_data=16;
/* 打开 optimizer_trace,只对本线程有效 */
SET optimizer_trace='enabled=on'; 

/* 执行语句 */
select word from words order by rand() limit 3;

/* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G
OPTIMIZER_TRACE部分结果

然后,我们来看一下这次OPTIMIZER_TRACE的结果。因为将max_length_for_sort_data设置成16,小于word字段的长度定义,所以我们看到sort_mode里面显示的是rowid排序,这个是符合预期的,参与排序的是随机值R字段和rowid字段组成的行。

这个时候你可能心算了一下,发现不对。R字段存放的随机值就8个字节,rowid是6个字节,数据总行数是10000,这样算出来就有140000字节,超过了sort_buffer_size定义的32768字节了。理论上根据上一节的分析,应该采用外部排序,但是number_of_tmp_files的值居然是0,难道不需要用临时文件吗?

这个SQL语句的排序确实没有用到临时文件,采用是MySQL5.6版本引入的一个新的排序算法,即:优先队列排序算法。接下来,我们就看看为什么没有使用临时文件的算法,也就是归并排序算法,而是采用了优先队列排序算法

其实,我们现在的SQL语句,只需要取R值最小的3个rowid。但是,如果使用归并排序算法的话,虽然最终也能得到前3个值,但是这个算法结束后,已经将10000行数据都排好序了。也就是说,后面的9997行也是有序的了。但,我们的查询并不需要这些数据是有序的。所以,想一下就明白了,这浪费了非常多的计算量。

而优先队列算法,就可以精确地只得到三个最小值,执行流程如下:

  • 对于这10000个准备排序的(R, rowid),先取前三行,构造成一个堆。
  • 取下一个行(R', rowid'),跟当前堆里面最大的R比较,如果R'小于R,把这个(R, rowid)从堆中去掉,换成(R', rowid')。
  • 重复第二步,直到第10000个(R', rowid')完成比较。

这里简单画了一个优先队列排序过程的示意图。

优先队列排序算法

上图是模拟6个(R, rowid)行,通过优先队列排序找到最小的三个R值的行的过程。整个排序过程中,为了最快地拿到当前堆的最大值,总是保持最大值在堆顶,因此这是一个大顶堆

 在之前的OPTIMIZER_TRACE结果中,filesort_priority_queue_optimization这个部分的chosen=true,就表示使用了优先队列排序算法,这个过程不需要临时文件,因此对应的number_of_tmp_files是0。

这个流程结束后,我们构造的堆里面,就是这个10000行里面R值最小的三行。然后,依次把它们的rowid取出来,去临时表里面拿到word字段,这个过程就跟上一篇文章的rowid排序的过程一样了。

我们再来回顾一下上一篇博客当中的SQL查询语句:

SELECT city, name, age
FROM t
WHERE city = '杭州'
ORDER BY name
LIMIT 1000;

你可能会疑惑,这里也用到了limit,为什么没用优先队列排序算法呢?原因是,这条SQL语句是limit1000,如果使用优先队列算法的话,需要维护的堆的大小就是1000行的(name, rowid),超过了我设置的sort_buffer_size大小,所以只能使用归并排序算法。

总之,不论是使用哪种类型的临时表,order by rand() 这种写法都会让计算过程非常复杂,需要大量的扫描行数,因此排序过程的资源消耗也会很大。

随机排序方法

回到我们文章开头的问题,怎么正确地随机排序呢?

我们可以先把问题简化一下,如果只随机选取1个word值,可以怎么做呢?思路上是这样的:

  • 取得这个表的主键id的最大值M和最小值N。
  • 用随机函数生成一个最大值到最小值之间的数X=(M-N)*RAND()+N。
  • 取不小于X的第一个ID的行。

我们把这个算法,暂时称作随机算法1。这里,我直接给你贴出执行语句的序列:

SELECT MAX(id), MIN(id) INTO @M, @N FROM t;
SET @X = FLOOR((@M-@N+1)*RAND() + @N);
SELECT * FROM t WHERE id >= @X LIMIT 1;

这个方法效率很高,因为取MAX(id)和MIN(id)都是不需要扫描索引的,而第三步的select也可以用索引快速定位,可以认为就只扫描了3行。但实际上,这个算法本身并不严格满足题目的随机要求,因为ID中间可能有空洞,因此选择不同行的概率不一样,不是真正的随机。

比如你有4个id,分别是1、2、4、5,如果按照上面的方法,那么取到id=4的这一行的概率是取得其他行概率的两倍。

如果这四行的id分别是1、2、40000、40001呢?这个算法基本就能当bug来看待了。

所以,为了得到严格随机的结果,你可以用下面这个流程:

  • 取得整个表的行数,并记为C。
  • 取得Y=FLOOR(C*RAND())。FLOOR函数在这里的作用,就是取整数部分。
  • 再用LIMIT Y, 1取得一行。

我们把这个算法,称为随机算法2。下面这段代码,就是上面流程的执行语句序列:

SELECT COUNT(*) INTO @C FROM t;
SET @Y = FLOOR(@C * RAND());
SET @sql = CONCAT("SELECT * FROM t LIMIT ", @Y, ", 1");
PREPARE stmt FROM @sql;
EXECUTE stmt;
DEAALOCATE PREPARE stmt;

由于LIMIT后面的参数不能直接跟变量,所以在上面的代码中使用了prepare+execute的方法。你也可以把拼接SQL语句的方法写在应用程序中,会更简单些。

这个随机算法2,解决了算法1里面明显的概率不均匀的问题。

MySQL处理LIMIT Y, 1 的做法就是按顺序一个一个地读出来,丢掉前Y个,然后把下一个记录作为返回结果,因此这一步需要扫描Y+1行。再加上,第一步扫描的C行,总共需要扫描C+Y+1行,执行代价比随机算法1的代价要高。

当然,随机算法2跟直接order by rand()比起来,执行代价还是小很多的。

你可能问了,如果按照这个表有10000行来计算的话,C=10000,要是随机到比较大的Y值,那扫描行数也跟20000差不多了,接近order by rand()的扫描行数,为什么说随机算法2的代价要小很多呢?这里把这个问题留给大家下去思考。

现在,我们再看看,如果我们按照随机算法2的思路,要随机取3个word值呢?你可以这么做:

  • 取得整个表的行数,记为C。
  • 根据相同的随机方法得到Y1、Y2、Y3。
  • 再执行三个LIMIY Y, 1语句得到三行数据。

我们把这个算法,称作随机算法3。下面这段代码,就是上面流程的执行语句序列:

SELECT COUNT(*) INTO @C FROM t;
SET @Y1 = FLOOR(@C * RAND());
SET @Y2 = FLOOR(@C * RAND());
SET @Y3 = FLOOR(@C * RAND());
SELECT * FROM t LIMIT @Y1, 1;
SELECT * FROM t LIMIT @Y2, 1;
SELECT * FROM t LIMIT @Y3, 1;

思考题

在上面的随机算法3的总扫描行数是C+(Y1+1)+(Y2+1)+(Y3+1),实际上它还是可以继续优化,来进一步减少扫描行数。问题提出,如果你是这个需求的开发人员,你会怎么做,来减少扫描行数呢?说说你的方案,并说明你的方案需要的扫描行数。

个人看法:其中这个思考题在之前的学习中已经渗透了一些,我们在将count(*)这么慢应该怎么办的那篇博客中,讲到了如何快速的求出一张表的总行数的方法,也就是随机算法3当作的第一个执行语句,我们可以从这个角度去思考优化总扫描行数里的C这一点,就不需要每次随机显示三个单词的时候,先做全表扫描了。另外一个优化的方向就是,可以先将计算得到的三个@Y1、@Y2、@Y3值从小到大进行排序,然后将整个算法写成一个函数,在函数内,逐行去扫描主表中的每一行,同时设置一个计数器,当计数器为已知的三个随机值的时候,这个时候读取当前行的word字段值,返回到结果集合中,当达到最大的一个随机值时,返回并结束。

按照这样的思路来讲,可以优化扫描行数到MAX(@Y1, @Y2, @Y3)+1。仅仅是思路而已。

猜你喜欢

转载自blog.csdn.net/weixin_42570248/article/details/89886027