本文参考诸葛老师的MySQL课
我们的数据库一般都会并发执行多个事务,多个事务可能会并发的对相同的一批数据进行增删改查操作,可能就会导致我们说的脏写、脏读、不可重复读、幻读这些问题。
这些问题的本质都是数据库的多事务并发问题,为了解决多事务并发问题,数据库设计了事务隔离机制、锁机制、MVCC多版本并发控制隔离机制,用一整套机制来解决多事务并发问题。接下来,我们会深入讲解这些机制,让大家彻底理解数据库内部的执行原理。
事务是由一组SQL语句组成的逻辑处理单元,事务具有以下4个属性,通常简称为事务的ACID属性。
原子性(Atomicity) :事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行。 一致性(Consistent) :在事务开始和完成时,数据都必须保持一致状态。这意味着所有相关的数据规则都必须应用于事务的修改,以保持数据的完整性。 隔离性(Isolation) :数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的“独立”环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然。 持久性(Durable) :事务完成之后,它对于数据的修改是永久性的,即使出现系统故障也能够保持。
更新丢失(Lost Update)或脏写 当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题–最后的更新覆盖了由其他事务所做的更新。 脏读(Dirty Reads) 一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致的状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并据此作进一步的处理,就会产生未提交的数据依赖关系。这种现象被形象的叫做“脏读”。 一句话:事务A读取到了事务B已经修改但尚未提交的数据,还在这个数据基础上做了操作。此时,如果B事务回滚,A读取的数据无效,不符合一致性要求。 不可重读(Non-Repeatable Reads) 一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改变、或某些记录已经被删除了!这种现象就叫做“不可重复读”。 一句话:事务A内部的相同查询语句在不同时刻读出的结果不一致,不符合隔离性 幻读(Phantom Reads) 一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就称为“幻读”。 一句话:事务A读取到了事务B提交的新增数据,不符合隔离性
“脏读”、“不可重复读”和“幻读”,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。
数据库的事务隔离越严格,并发副作用越小,但付出的代价也就越大,因为事务隔离实质上就是使事务在一定程度上“串行化”进行,这显然与“并发”是矛盾的。
同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读"和“幻读”并不敏感,可能更关心数据并发访问的能力。
常看当前数据库的事务隔离级别:
show variables like 'tx_isolation';
设置事务隔离级别:
set tx_isolation='REPEATABLE-READ';
Mysql默认的事务隔离级别是可重复读,用Spring开发程序时,如果不设置隔离级别默认用Mysql设置的隔离级别,如果Spring设置了就用已经设置的隔离级别。
创建account,并插入数据
CREATE TABLE `account` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`name` varchar(255) DEFAULT NULL,
`balance` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lilei', '450');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('hanmei', '16000');
INSERT INTO `test`.`account` (`name`, `balance`) VALUES ('lucy', '2400');
SELECT @@TRANSACTION_ISOLATION
输出为:
-- 设置事务隔离级别
SET TRANSACTION_ISOLATION="READ-UNCOMMITTED";
-- 开启事务
START TRANSACTION;
-- 查询
SELECT * FROM account;
输出为:
-- 设置事务隔离级别
SET TRANSACTION_ISOLATION="READ-UNCOMMITTED";
-- 开启事务
START TRANSACTION;
-- 窗口2 更新操作
UPDATE account SET balance = balance - 100 WHERE id = 1;
-- 窗口2 执行查询操作
SELECT * FROM account;
输出为:
-- 查询 再次 单独执行本行
SELECT * FROM account;
输出为:
-- 窗口2 回滚
ROLLBACK;
-- 窗口2 执行查询操作
SELECT * FROM account;
输出为:
update account set balance = balance - 100 where id =1;
lilei的balance没有变成250,居然是350,是不是很奇怪,数据不一致啊.
在应用程序中,我们会用350-100=250,并不知道其他会话回滚了,要想解决这个问题可以采用读已提交的隔离级别。
-- 设置事务隔离级别 读已提交
SET TRANSACTION_ISOLATION="READ-COMMITTED";
-- 开启事务
START TRANSACTION;
-- 窗口1 查询
SELECT * FROM account;
输出为:
-- 设置事务隔离级别 读已提交
SET TRANSACTION_ISOLATION="READ-COMMITTED";
-- 开启事务
START TRANSACTION;
-- 窗口2 更新数据
UPDATE account SET balance = balance - 50 WHERE id = 1;
-- 窗口2 查询数据
SELECT * FROM account;
输出为:
在这里插入代码片
-- 窗口1 在窗口2 提交后再次查询
SELECT * FROM account;
输出为:
读到400 ,与上一次读到的450 不一致,不可重复读。
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="REPEATABLE-READ";
-- 开启事务
START TRANSACTION;
-- 窗口1 查询
SELECT * FROM account;
输出为:
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="REPEATABLE-READ";
-- 开启事务
START TRANSACTION;
-- 窗口2 更新表 account
UPDATE account SET balance = balance - 50 WHERE id = 1;
-- 窗口2 查询
SELECT * FROM account;
输出为:
提交窗口2 的事务
-- 窗口2 提交
COMMIT;
-- 窗口1 查询 再次
SELECT * FROM account;
输出为:
-- 窗口1 执行更新
update account set balance = balance - 50 where id = 1;
输出为:
[SQL]-- 窗口1 执行更新
update account set balance = balance - 50 where id = 1;
受影响的行: 1
时间: 0.001s
客户端1 查询
-- 窗口1 再次查询
SELECT * FROM account;
输出为:
balance没有变成 400-50=350,lilei的balance值用的是步骤2中的350来算的,所以是300,数据的一致性倒是没有被破坏。可
重复读的隔离级别下使用了MVCC(multi-version concurrency control)机制,select操作不会更新版本号,是快照读(历史版本);insert、update和delete会更新版本号,是当前读(当前版本)
-- 开启事务
BEGIN;
-- 窗口2 插入数据
INSERT INTO account VALUES(4,'lily',700);
-- 窗口2 查询
SELECT * FROM account;
-- 窗口2 提交事务
COMMIT;
输出为:
-- 窗口1 再次查询6
SELECT * FROM account;
输出为:
-- 窗口1 查询不到id为 4的,直接更新id为4的 step7
update account set balance=888 where id = 4;
输出为:
可以看到,尽管差不多,但是可以更新,更新后在客户端1中再次查询
-- 窗口1 更新后再次查询 step7
SELECT * FROM account;
输出为:
能更新成功,再次查询能查到客户端B新增的数据
客户端A提交事务:
COMMIT;
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="SERIALIZABLE";
-- 开启事务
START TRANSACTION;
-- 窗口1 查询
SELECT * FROM account WHERE id = 1;
输出为:
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="SERIALIZABLE";
-- 开启事务
START TRANSACTION;
-- 窗口2 更新表 account
UPDATE account SET balance = 20000 WHERE id = 2;
输出为:
[SQL]-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="SERIALIZABLE";
受影响的行: 0
时间: 0.000s
[SQL]
-- 开启事务
START TRANSACTION;
受影响的行: 0
时间: 0.001s
[SQL]
-- 窗口2 更新表 account
UPDATE account SET balance = 20000 WHERE id = 2;
受影响的行: 1
时间: 0.000s
更新相同的id为1的记录会被阻塞等待,说明在串行模式下innodb的查询也会被加上行锁。
-- 窗口2 更新表 account 串行化下 更新id为1
UPDATE account SET balance = 10000 WHERE id = 1;
输出为:
如果客户端A执行的是一个范围查询,那么该范围内的所有行包括每行记录所在的间隙区间范围(就算该行数据还未被插入也会加锁,这种是间隙锁)都会被加锁。此时如果客户端B在该范围内插入数据都会被阻塞,所以就避免了幻读。这种情况在上一篇文章中,演示过了。
这种隔离级别并发性极低,开发中很少会用到。
间隙锁,锁的就是两个值之间的空隙。Mysql默认级别是repeatable-read,有办法解决幻读问题吗?间隙锁在某些情况下可以解决幻读问题。
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="REPEATABLE-READ";
-- 开启事务
START TRANSACTION;
-- 窗口1 可重复锁 执行查询
SELECT * FROM account;
输出为:
-- 窗口1 通过范围插入
update account set name = '张三' where id > 8 and id <18;
输出为:
则其他客户端没法在这个范围所包含的所有行记录(包括间隙行记录)以及行记录所在的间隙里插入或修改任何数据,即id在(3,20]区间都无法修改数据,注意最后那个20也是包含在内的。
间隙锁是在可重复读隔离级别下才会生效。
INSERT INTO account VALUES(23,'王二',2300);
输出为:
插入一个3和20之内的行数据
INSERT INTO account VALUES(15,'小五',1500);
输出为:
Next-Key Locks是行锁与间隙锁的组合。像上面那个例子里的这个(3,20]的整个区间可以叫做临键锁。
无索引行锁会升级为表锁(RR级别会升级为表锁,RC级别不会升级为表锁)
锁主要是加在索引上,如果对非索引字段更新,行锁可能会变表锁
session1 执行:
update account set balance = 800 where name = 'lilei';
session2 对该表任一行操作都会阻塞住
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁。并且该索引不能失效,否则都会从行锁升级为表锁。
锁定某一行还可以用lock in share mode(共享锁) 和for update(排它锁),例如:
select * from test_innodb_lock where a = 2 for update;
这样其他session只能读这行数据,修改则会被阻塞,直到锁定
行的session提交。
结论
Innodb存储引擎由于实现了行级锁定,虽然在锁定机制的实现方面所带来的性能损耗可能比表级锁定会要更高一下,但是在整体并发处理能力方面要远远优于MYISAM的表级锁定的。当系统并发量高的时候,Innodb的整体性能和MYISAM相比就会有比较明显的优势了。 但是,Innodb的行级锁定同样也有其脆弱的一面,当我们使用不当的时候,可能会让Innodb的整体性能表现不仅不能比MYISAM高,甚至可能会更差。
通过检查InnoDB_row_lock状态变量来分析系统上的行锁的争夺情况
show status like 'innodb_row_lock%';
对各个状态量的说明如下:
Innodb_row_lock_current_waits: 当前正在等待锁定的数量 Innodb_row_lock_time: 从系统启动到现在锁定总时间长度 Innodb_row_lock_time_avg: 每次等待所花平均时间 Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花时间 Innodb_row_lock_waits: 系统启动后到现在总共等待的次数
对于这5个状态变量,比较重要的主要是:
Innodb_row_lock_time_avg (等待平均时长) Innodb_row_lock_waits (等待总次数) Innodb_row_lock_time(等待总时长)
尤其是当等待次数很高,而且每次等待时长也不小的时候,我们就需要分析系统中为什么会有如此多的等待,然后根据分析结果着手制定优化计划。
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="REPEATABLE-READ";
begin;
select * from account where id=1 for update;
输出为:
-- 设置事务隔离级别 可重复读
SET TRANSACTION_ISOLATION="REPEATABLE-READ";
begin;
select * from account where id=2 for update;
输出为:
select * from account where id=2 for update;
输出为:
select * from account where id=1 for update;
输出为:
SHOW OPEN TABLES WHERE In_use > 0;
SHOW FULL processlist
输出为:
KILL id值
查询死锁表
-- 查询死锁表
SELECT * FROM PERFORMANCE_SCHEMA.data_locks;
-- 查询死锁等待时间
SELECT * FROM PERFORMANCE_SCHEMA.data_lock_waits;
查看近期死锁日志信息:
show engine innodb status;
大多数情况mysql可以自动检测死锁并回滚产生死锁的那个事务,但是有些情况mysql没法自动检测死锁
锁优化建议
尽可能让所有数据检索都通过索引来完成,避免无索引行锁升级为表锁 合理设计索引,尽量缩小锁的范围尽可能减少检索条件范围,避免间隙锁 尽量控制事务大小,减少锁定资源量和时间长度,涉及事务加锁的sql尽量放在事务最后执行 尽可能低级别事务隔离