首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

上来就问MySQL事务,瑟瑟发抖……

关于学习这件事情宁可花点时间系统学习,也不要东一榔头西一棒槌,都说学习最好的方式就是系统的学习,希望看完本文会让你对事务有一定的理解。

一、什么是事务

事务是独立的工作单元,在这个独立工作单元中所有操作要么全部成功,要么全部失败。

也就是说如果有任何一条语句因为崩溃或者其它原因导致执行失败,那么未执行的语句都不会再执行,已经执行的语句会进行回滚操作,这个过程被称之为事务。

例:

最近在写一个论坛系统,当发布的主题被其它用户举报后,后台会对举报内容进行审核。

一经审核为违规主题,则进行删除主题的操作,但不仅仅要删除主题还要删除主题下的帖子、浏览量,关于这个主题的一切信息都需要进行清理。

删除流程如下,用上边概念来说,以下执行的四个流程,每个流程都必须成功否则事务回滚返回删除失败。

假设执行到了第三步后SQL执行失败了,那么第一二步都会进行回滚,第四步则不会在执行。

清理流程

二、事务四大特征

事务的四大特征,原子性、一致性、隔离性、持久性。

1. 原子性

事务中所有操作要么全部成功,要么全部失败,不会存在一部分成功,一部分失败。

这个概念也是事务的特性,事务概念本身就是使用原子性进行定义的。

原子性的实现是基于回滚日志实现(undo log),当事务需要回滚时就会调用回滚日志进行SQL语句回滚操作,实现数据还原。

2. 一致性

一致性,字面意思就是前后一致呗!在数据库中不管进行任何操作,都是从一个一致性转移到另一个一致性。

当事务结束后,数据库的完整性约束不被破坏。

当你了解完事务的四大特征之后就会发现,都是保证数据一致性为最终目标存在的。

在学习事务的过程中大家看到最多的案例就是转账,假设用户A与用户B余额共计1000,那么不管怎么转俩人的余额自始至终也就只有1000。

3. 隔离性

保证事务执行尽可能的不受其它事务影响,这个是隔离级别可以自行设置,在innodb中默认的隔离级别为可重复读(Repeatable Read)。

这种隔离级别有可能造成的问题就是出现幻读,但是使用间隙锁可以解决幻读问题。

学习了隔离性你需要知道,而隔离性是针对事务与事务之间的关系。

4. 持久性

持久性是指当事务提交之后,数据的状态就是永久的,不会因为系统崩溃而丢失。

事务持久性是基于重做日志(redo log)实现的。

三、事务并发会出现的问题

1. 脏读

读取了另一个事务没有提交的数据。

以上表为例,事务A读取主题访问量时读取到了事务B没有提交的数据150。

如果事务B失败进行回滚,那么修改后的值还是会回到100。

然而事务A获取的数据是修改后的数据,这就有问题了。

2. 不可重复读

事务读取同一个数据,返回结果先后不一致问题。

上表格中,事务A在先后获取主题访问量时,返回的数据不一致。

也就是说在事务A执行的过程中,访问量被其它事务修改,那么事务A查询到的结果就是不可靠的。

脏读读取的是另一个事务没有提交的数据,而不可重复读读取的是另一个事务已经提交的数据。

3. 幻读

事务按照查询,俩次返回结果不同。

以上表为例,当对100-200访问量的主题做统计时,第一次找到了100个,第二次找到了101个。

4. 区别

脏读读取的是另一个事务没有提交的数据,而不可重复读读取的是另一个事务已经提交的数据。

幻读和不可重复读都是读取了另一条已经提交的事务(这点与脏读不同),所不同的是不可重复读查询的都是同一个数据项,而幻读针对的是一批数据整体(比如数据的个数)。

针对以上的三个问题,产生了四种隔离级别。

在第二节中对隔离性进行了简单的概念解释,实际上的隔离性是很复杂的。

在MySQL中定义了四种隔离级别,分别为未提交读 (Read Uncommitted)、提交读 (Read committed)、可重复读取 (Repeatable Read)、可串行化 (Serializable)。

未提交读 (Read Uncommitted):俩个事务同时运行,有一个事务修改了数据,但未提交,另一个事务是可以读取到没有提交的数据。这种情况被称之为。

提交读(Read committed):一个事务在未提交之前,所做的任何操作其它事务不可见。这种隔离级别也被称之为。因为会存在俩次同样的查询,返回的数据可能会得到不一样的结果。

可重复读(Repeatable Read):这种隔离级别问题,但是还是问题,这种隔离界别在MySQL的innodb引擎中是默认级别。MySQL在解决幻读问题使用间隙锁来解决幻读问题。

可串行化 (Serializable):这种级别是最高的,强制事务进行串行执行,解决了可重复读的幻读问题。

对于隔离级别,级别越高并发就越低,而级别越低会引发脏读、不可重复读、幻读的问题。

因此在MySQL中使用作为默认级别。

作为默认级别是如何解决并处理相应问题的呢!

那么针对这一问题,是一个难啃的骨头,咔咔将在下一期MVCC文章专门来介绍这块。

四、事务日志以及事务异常如何应对

在Innodb中事务的日志分为俩种,回滚日志、重做日志。

先来看一下俩个日志的存放位置吧!

在Linux下的MySQL事务日志存放在这个位置中。

事务日志存放位置

从上图中可以看到分别为ib_logfile、undo_俩个文件。

ib_logfile文件为重做日志

undo_文件为回滚日志

在这里估计有点小伙伴会有点迷糊这个回滚日志。

那是因为在MySQL5.6默认回滚日志没有进行独立表空间存储,而是存放到了ibdata文件中。

独立表空间存储从MySQL5.6后就已经支持了,但是需要自行配置。

在MySQL8.0是由这个参数来设置回滚日志独立空间个数,这个参数的范围为0-128。

默认值为0表示不开启独立的回滚日志,且回滚日志存储在ibdata文件中。

这个参数是在初始化数据库时指定的,实例一旦创建这个参数是不能改动的。

如果设置的innodb_undo_tablespaces 值大于实例创建时的个数,则会启动失败。

回滚日志独立表空间个数

1. 重做日志(redo log)(持久性实现原理)

当提交事务之后,并不是直接修改数据库的数据的,而是先保证将相关的操作记录到redo日志中。

数据库会根据相应的机制将内存的中的脏页数据刷新到磁盘中。

重做日志写入流程

上图是一个简单的重做日志写入流程。

在上图中提到俩个陌生概念,Buffer pool、redo log buffer,这个俩个都是Innodb存储引擎的内存区域的一部分。

而redo log file是位于磁盘位置。

也就说当有DML(insert、update、delete)操作时,数据会先写入Buffer pool,然后在写到重做日志缓冲区。

重做日志缓冲区会根据刷盘机制来进行写入重做日志中。

这个机制的设置参数为,参数分别为0,1,2

刷盘策略

上图即为重做日志的写入策略。

当这个参数的值为0的时,提交事务之后,会把数据存放到redo log buffer中,然后每秒将数据写进磁盘文件

当这个参数的值为1的时,提交事务之后,就必须把redo log buffer从内存刷入到磁盘文件里去,只要事务提交成功,那么redo log就必然在磁盘里了。

当这个参数的值为2的情况,提交事务之后,把redo log buffer日志写入磁盘文件对应的os cache缓存里去,而不是直接进入磁盘文件,1秒后才会把os cache里的数据写入到磁盘文件里去。

2. 服务器异常停止对事务如何应对(事务写入过程)

当参数为0时,前一秒的日志都保存在日志缓冲区,也就是内存上,如果机器宕掉,可能丢失1秒的事务数据。

当参数为1时,数据库对IO的要求就非常高了,如果底层的硬件提供的IOPS比较差,那么MySQL数据库的并发很快就会由于硬件IO的问题而无法提升。

当参数为2时,数据是直接写进了os cache缓存,这部分属于操作系统部分,如果操作系统部分损坏或者断电的情况会丢失1秒内的事务数据,这种策略相对于第一种就安全了很多,并且对IO要求也没有那么高。

小结

关于性能:0>2>1

关于安全:1>2>0

3. 回滚日志(undo log)(原子性实现原理)

回滚日志相对重做日志来说没有那么复杂的流程。

当事务对数据库进行修改时,Innodb引擎不仅会记录redo log日志,还会记录undo log日志。

如果事务失败,或者执行了rollback,为了保证事务的原子性,就必须利用undo log日志来进行回滚操作。

回滚日志的存储形式如下。

在undo log日志文件,事务中使用的每条insert都对应了一条delete,每条update也都对应一条相反的update语句

回滚日志存储方式

注意:

系统发生宕机或者数据库进程直接被杀死。

当用户再次启动数据库进程时,还能够立刻通过查询回滚日志将之前未完成的事务进程回滚。

这也就需要回滚日志必须先于数据持久化到磁盘上,是需要先写日志后写数据库的主要原因。

以上就是关于事务的俩大日志,重做日志、回滚日志的理解。

五、锁机制

锁在MySQL中是是非常重要的一部分,锁对MySQL数据访问并发有着举足轻重的作用。

所以说锁的内容以及细节是十分繁琐的,本节只是对Innodb锁的一个大概整理。

MySQL中有三类锁,分别为行锁、表锁、页锁。

首先需要明确的是这三类锁是是归属于那种存储引擎的。

行锁:Innodb存储引擎

表锁:Myisam、MEMORY存储引擎

页锁:BDB存储引擎

1. 行锁

共享锁(S):

假设一个事务对数据A加了共享锁(S),则这个事务只能读A的数据。

其它事务只能再对数据A添加共享锁(S),而不能添加排它锁(X),直到这个事务释放了数据A的共享锁(S)。

这就保证了其它事务也可以读取A的数据,但是在这个事务没有释放在A数据上的共享锁(S)之前不能对A做任何修改。

排它锁(X)

假设一个事务对数据A添加了排它锁(X),则只允许这个事务读取和修改数据A。

其它任何事务都不能在对数据A添加任何类型的锁,直至这个事务释放了数据A上的锁。

排它锁阻止其它事务获取相同数据的共享锁(S)、排它锁(X),直至释放排它锁(X)。

特点

只针对单一数据进行加锁

开销大

加锁慢

会出现死锁

锁粒度最小,发生锁冲突的概率越低,并发越高。

还记得在上文中提到的事务并发带来的问题、脏读、不可重读读、幻读。

学习到了这里,应该就明白如何解决脏读、不可重读读了。

2. 表锁

表共享读锁 :针对同一个份数据,可以同时读取互不影响,但不允许写操作。

表独占写锁 :当写操作没有结束时,会阻塞所有读和写。

特点

对整张表加锁

开销小

加锁快

无死锁

锁粒度最大,发生锁冲突的概率越大,并发越小。

本文主要说明Innodb和Myisam的锁,页锁不就不做详细说明了。

3. 如何加锁

表锁

隐式加锁:默认自动加锁释放锁,select加读锁、update、insert、delete加写锁。

手动加锁:lock table tableName read;(添加读锁)、lock table tableName write(添加写锁)。

手动解锁:unlock table tableName(释放单表)、unlock table(释放所有表)

行锁

隐式加锁:默认自动加锁释放锁,只有select不会加锁,update、insert、delete加排它锁。

手动加共享锁:select id name from user lock in share mode;

手动加排它锁:select id name form user for update;

解锁:正常提交事务(commit)、事务回滚(rollback)、kill进程。

六、总结

本文主要对事务的重点知识点进行解读,内容总结。

原子性:使用事务日志的回滚日志(undo log)实现

隔离性:使用mvcc实现(幻读问题除外)

持久性:使用事务日志的重做日志(redo log)实现

一致性:是事务追求的最终目标,原子性、隔离性、持久性都是为了保证数据库一致性而存在

脏读与不可重复读的区别:脏读是读取没有提交事务的数据、不可重复读读取的是已提交事务的数据。

幻读与不可重复读的区别:都是读取的已提交事务的数据(与脏读不同),幻读针对的是一批数据,例如个数。不可重复读针对的是单一数据。

重做日志(redo log):实现了事务的持久性,提交事务后不是直接修改数据库,而是保证每次事务操作读写入redo log中。并且落盘会有三种策略(详细看四-1节)。

回滚日志(undo log):实现了事务的原子性,针对DML的操作,都会有记录相反的DML操作。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210325A0F7NE00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券