建表SQL:
create table citizen
(
id int auto_increment
primary key,
city varchar(16) not null,
name varchar(16) not null,
age int not null,
addr varchar(128) null
);
Easy!SQL随手一写:
select city, name, age
from citizen
where city = '上海'
order by name
limit 1000;
为避免全表扫描,给 city 加个索引,再explain验证:
Extra的 Using filesort 表示需要排序,MySQL会给每个线程分配一块内存(sort_buffer)用于排序。
先看city索引:
这里 id_x ~ id_(x+n)
的数据都满足city=上海。
city, name, age
三字段city
找到第一个满足city=上海
的主键id, 即id_x
city, name, age
三个字段的值,存入sort_buffercity
取下一个记录的主键idid_y
name
做快排这就是
按name排序这一操作可能:
这取决于:
待排序数据量 < sort_buffer_size
,就在内存中排序 SET optimizer_trace='enabled=on';
/* 使用 @a 保存 Innodb_rows_read 的初始值 */
select VARIABLE_VALUE into @a
from performance_schema.session_status
where variable_name = 'Innodb_rows_read';
select city, name,age
from citizen
where city='上海'
order by name
limit 1000;
/* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G
/* 使用 @b 保存 Innodb_rows_read 的当前值 */
select VARIABLE_VALUE into @b
from performance_schema.session_status
where variable_name = 'Innodb_rows_read';
/* 计算 Innodb_rows_read 的差值 */
select @b-@a;
"filesort_execution": [
],
"filesort_summary": {
"rows": 4000
"examined_rows": 4000,
"number_of_tmp_files": 12,
"sort_buffer_size": 32664 ,
"sort_mode": "<sort_key, packed_additional_fields>"
看其中的number_of_tmp_files 字段,确认是否使用临时文件。
排序过程中使用的临时文件数。为啥需要12个文件?内存放不下时,就需要使用外部排序,外部排序一般使用归排。MySQL将需要排序的数据分成12份,每一份单独排序后存在这些临时文件中。然后把这12个有序文件再合并成一个有序的大文件。
参与排序的行数。测试表有4000条满足city='上海'的记录,所以为4000。
排序过程对字符串做了“紧凑”处理。即使name字段定义为varchar(16),在排序过程中还是按实际长度分配空间。
select @b-@a
=4000,整个执行过程只扫描4000行。
为避免对结论造成干扰,这里将internal_tmp_disk_storage_engine设成MyISAM。否则,
select @b-@a
=4001。因为查询OPTIMIZER_TRACE表时,需要用到临时表,而internal_tmp_disk_storage_engine默认是InnoDB。若使用InnoDB,把数据从临时表取出时,会让Innodb_rows_read的值加1。
上面的算法,只是读一遍原表数据,剩下都是在sort_buffer和临时文件中执行。这就存在问题,若查询要返回的字段很多,则:
所以若单行很大,该算法效率可不太行。那么当MySQL认为排序的单行长度太大时,它会咋样呢?改个参数,让MySQL采用另外一种算法:
# MySQL控制用于排序的行数据的长度。
# 若单行长度超过该值,MySQL就认为单行太大,要换个算法
SET max_length_for_sort_data = 16;
city+name+age
三字段的定义总长度为36,这里将max_length_for_sort_data设为16,结果会咋样呢?
新的算法导致放入sort_buffer的字段,只有待排序列(name字段)和主键id!这时的排序结果就因为少了city
和age
字段值,不能直接返回了,执行流程就变成:
sort_buffer
,确定放入两个字段:name
和id
city
找到第一个满足 city=上海 的主键id:id_x
sort_buffer
city
索引,取下一个记录的主键idid_y
sort_buffer
中的数据,按name排序对比全字段排序示意图,就是多访问了一次表citizen的主键索引,即step7。
resultSet只是个逻辑概念,实际上MySQL服务端从排序后的sort_buffer中依次取出id,然后到原表查到city、name和age这三字段的结果,无需在服务端再耗费内存存储结果,而是直接返给client。
这时查看rowid排序的OPTIMIZER_TRACE结果:
"filesort_execution": [
],
"filesort_summary": {
"rows": 4000
"examined_rows": 4000,
"number_of_tmp_files": 10,
"sort_buffer_size": 32728 ,
"sort_mode": "<sort_key, rowid>"
select @b-@a
=5000 因为这时除了排序过程,在排序完成后,还要根据id去原表取值。由于语句是limit 1000,因此会多读1000行。所以MySQL就是:若内存够,就多利用内存,尽量减少磁盘访问。
对于InnoDB,rowid排序会要求回表,多造成了磁盘读,因此不会被优先选择,所以MySQL排序其实是个高成本操作。
所以可创建一个city,name
联合索引:
alter table t add index citizen(city, name);
索引树搜索定位到第一个满足city='上海'的记录,且能确保接下来按顺序取“下一条记录”的遍历过程,只要city是上海,name值一定有序。这样整个查询的执行流程就变成:
可见,该查询过程无需临时表,也无需排序。
explain select city, name, age from citizen where city = '上海' order by name limit 1000;
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| 1 | SIMPLE | citizen | NULL | ref | city,name | name | 51 | const | 4000 | 100.00 | Using index condition |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
1 row in set, 1 warning (0.00 sec)
Extra字段中就没有Using filesort了,即无需排序。而且由于(city,name)联合索引本身有序,所以该查询也不用把4000行全都读一遍,只要找到满足条件的前1000条记录即可退出。在这个例子里,只需扫描1000次。
针对本案例的查询,可创建一个city、name、age联合索引:
alter table t add index city_user_age(city, name, age);
这时,city字段值相同的行,还是按name字段值递增排序,此时的查询语句也就不再需要排序了。
查询语句的执行流程变成:
explain select city, name, age from citizen where city = '上海' order by name limit 1000;
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| 1 | SIMPLE | citizen | NULL | ref | city,name,age | age | 51 | const | 4000 | 100.00 | Using where; Using index |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
1 row in set, 1 warning (0.00 sec)
Extra字段里面多个“Using index”,说明使用了覆盖索引,性能会快很多。
注意,这并不说明必须让每个查询都用上覆盖索引,就要把语句中涉及的字段都建联合索引,毕竟索引也占空间,而且修改、新增都会导致索引改变,还是具体场景具体分析!
参考