索引是MySQL的数据结构,关系着MySQL如何存储数据,查询数据;而如何操作数据,解决多线程时操作数据带来的问题,则需要通过事务来完成。
InnoDB引擎支持事务,MyISAM引擎不支持事务
事务是由一组SQL语句组成的逻辑处理单元,事务具有以下4个属性,通常简称为事务的ACID属性
用大白话说:
InnoDB中,一共有四种隔离级别:读未提交、读已提交、可重复读、可串行化。默认为可重复读。
它们分别会对应一些并发问题,如表格所示:
隔离级别 | 脏读 | 不可重复读 | 幻读 |
---|---|---|---|
读未提交 | 有可能 | 有可能 | 有可能 |
读已提交 | 不可能 | 有可能 | 有可能 |
可重复读 | 不可能 | 不可能 | 有可能 |
可串行化 | 不可能 | 不可能 | 不可能 |
下面将对这些问题做详细解释
在该隔离级别下,事务A可以读到事务B尚未提交的数据。
设置方式:
sql复制代码set tx_isolation='read-uncommitted';
如以下事务A先进行查询用户数据, 此时jack
的余额为10
事务B修改jack
的余额为20
sql复制代码begin;
update account set balance = balance + 10 where id = 1;
注意:此时事务B并未提交
事务A再次查询,发现jack
的余额已变为为20
若此时事务A用该数据进行业务处理,比如购买商品,完成之后,事务B发生回滚。那么就相当于事务A用了错误的数据进行了业务。
在该隔离级别下,事务A可以读到事务B已经提交的数据。
设置方式:
sql复制代码set tx_isolation='read-committed';
如以下事务A先进行查询用户数据, 此时jack
的余额为10
事务B修改jack
的余额为20
sql复制代码begin;
update account set balance = balance + 10 where id = 1;
注意:此时事务B并未提交
事务A再次查询,jack
的余额仍然为10
此时事务B提交数据,事务A再次查询,发现jack
的余额变为了20
此时就会带来一个新的问题:在事务A中,明明没有对该条数据做任何修改,但多次查询发现数据一直变化,就会给人带来疑惑:我到底应该用哪个数据完成业务呢?
在该隔离级别下,事务A每次查询的数据都和第一次查询的数据相同。
设置方式:
sql复制代码set tx_isolation='repeatable-read';
如以下事务A先进行查询用户数据, 此时jack
的余额为10
事务B修改jack
的余额为20, 并且提交数据
sql复制代码begin;
update account set balance = balance + 10 where id = 1;
commit;
注意:此时事务B已经提交了
事务A再次查询,jack
的余额仍然为10
在其他事务中查询,可以发现其实jack
的余额已经是20了
现在,尝试在事务A中查询id<5
的数据,此时只查出两条数据
在其他事务中插入一条id=4
的记录并提交
sql复制代码INSERT INTO `account` (`id`, `name`, `balance`)
VALUES
(4, 'zhangsan', 30);
在事务A中更新id=4
的数据,注意,更新的是id=4
的数据
然后再次尝试查询id<5
的数据,此时发现多出了一条id=4
的数据
在同一个事务里,重复查询同一条数据,数据不会发生改变,这是可重复读。
但是存在可以更新一条“不存在”的数据,然后把它查出来,这是幻读。
对于该事务来说不存在
在该隔离级别下,执行任何sql都是串行的(加锁)。
设置方式:
sql复制代码set tx_isolation='serializable';
如以下事务A先进行查询用户数据, 此时jack
的余额为10
在事务B中尝试修改该条数据,你会发现,锁住了
在该隔离级别,执行任何sql,包括查询sql,MySQL都会给你加上一把锁,让所有的操作都成线性的,这便是可串行化。
该隔离级别性能极低,不建议使用。
在本章节中,简单介绍了MySQL的四种隔离级别和他们所带来的问题。
最后再说一点关于读已提交
和可重复读
的想法:
在读已提交的隔离级别下,虽然说在同一事务中,存在数据发生变化的情况,但实际在开发时,很少会重复查询同一条数据,所以问题其实不大,并且读已提交的性能要比可重复读要好一些,如果想要提升性能,业务又不存在或者不在意极端的情况,可以考虑使用读已提交的隔离级别。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文系转载,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。