数据库的事务是并发控制的基本单位,是指逻辑上的一组操作,要么全部执行,要么全部不执行。
1、事务的特性:
(1)原子性:事务是一个不可分割的工作单元,事务里的操作要么都成功,要么都失败,如果事务执行失败,则需要进行回滚。
(2)隔离性:事务的所操作的数据在提交之前,对其他事务的可见程度。
(3)持久性:一旦事务提交,它对数据库中数据的改变就是永久的。
(4)一致性:事务不能破坏数据的完整性和业务的一致性。例如在转账时,不管事务成功还是失败,双方钱的总额不变。
原子性是通过MySQL的回滚日志undo log来
实现的:当事务对数据库进行修改时,InnoDB会生成对应的undo log;
如果事务执行失败或调用了rollback
,导致事务需要回滚,便可以利用undo log
中的信息将数据回滚到修改之前的样子。
undo log
(回滚日志):是采用段(segment
)的方式来记录的,每个undo
操作在记录的时候占用一个undo log segment
。在数据更改操作时,记录了相对应的undo log的
目的在于:
undo log
实现Innodb事务可重复读和读已提交隔离级别。隔离性是事务所操作的数据在提交之前,对其他事务的可见程度。
2.1、事务隔离级别:
为保证在并发环境下读取数据的完整性和一致性,数据库提供了四种事务隔离级别,隔离级别越高,越能保证数据的完整性和一致性,但对高并发性能影响也越大,执行效率越低。(四种隔离级别从上往下依次升高)
读未提交:允许事务在执行过程中,读取其他事务尚未提交的数据; 读已提交:允许事务在执行过程中读取其他事务已经提交的数据; 可重复读(默认级别):在同一个事务内,任意时刻的查询结果都是一致的; 读序列化:所有事务逐个依次执行,每次读都需要获取表级共享锁,读写会相互阻塞。
2.2、如果不考虑事务的隔离性,在事务并发的环境下,可能存在问题有:
(1)更新丢失:两个或多个事务操作相同的数据,然后基于选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题:最后的更新覆盖了其他事务所做的更新。
(2)脏读:指事务A正在访问数据,并且对数据进行了修改(事务未提交),这时,事务B也使用这个数据,后来事务A撤销回滚,并把修改后的数据恢复原值,B读到的数据就与数据库中的数据不一致,即B读到的数据是脏数据。
(3)不可重复读:在一个事务内,多次读取同一个数据,但是由于另一个事务在此期间对这个数据做了修改并提交,导致前后读取到的数据不一致;
(4)幻读:在一个事务中,先后两次进行读取相同的数据(一般是范围查询),但由于另一个事务新增或者删除了数据,导致前后两次结果不一致。
① 不可重复读和幻读的区别: 不可重复读侧重于读取到其他事务修改的数据,幻读侧重于读取到其他事务新增或者删除的数据。 ② 可以采用锁机制来解决不可重复读和幻读: 对于不可重复读,只需对操作的数据添加行级锁,防止操作的数据发生变化;而对于幻读,需要添加表级锁,将整张表锁定,防止新增或者删除数据。
不同的事务隔离级别,在并发环境会存在不同的并发问题:
√:可能出现的情况 ×:不会出现该情况 | 脏读 | 不可重复读 | 幻读 |
---|---|---|---|
读序列化 | × | × | × |
可重复读 | × | × | √ |
读已提交 | × | √ | √ |
读未提交 | √ | √ | √ |
2.3、事务隔离性的实现原理:
为了实现事务隔离,数据库延伸出了数据库锁,其中Innodb事务的隔离级别是由锁机制和MVVC(多版本并发控制)实现的:
2.3.1、Mysql锁机制:
MySQL锁机制的基本工作原理就是:事务在修改数据库之前,需要先获得相应的锁,获得锁的事务才可以修改数据;在该事务操作期间,这部分的数据是锁定,其他事务如果需要修改数据,需要等待当前事务提交或回滚后释放锁。
(锁机制的更多说明可以参考另一篇博客:https://blog.csdn.net/a745233700/article/details/84504209)
通过对InnoDB不同锁类型的特性分析,可以利用锁解决脏读、不可重复读、幻读:
2.3.2、Multiversion concurrency control
(MVCC
多版本并发控制):
InnoDB的MVCC是通过在每行记录后面保存两个隐藏的列来实现的,一个保存了行的事务ID(每次提交事务,事务ID会自增),一个保存了行的回滚段指针
每开始一个新的事务,都会自动递增产生一个新的事务ID。事务开始时刻会把该事务ID放到当前事务影响的行事务ID字段中,而 DB_ROLL_PTR 指向该行回滚段的指针,该行记录上的所有版本数据,都在undo log回滚日志中通过链表形式组织,所以该值实际指向undo log中该行的历史记录链表。
在并发访问数据库时,对正在事务中的数据做MVCC多版本的管理,以避免写操作阻塞读操作,并且可以通过比较版本解决幻读。
MVCC只在 可重复度 和 读已提交 两个隔离级别下才会工作,其中,MVCC实质就是通过保存数据在某个时间点的快照来实现的。
快照读:Innodb快照读,数据的读取将由 cache(原本数据) + undo(事务修改前的数据) 两部分组成 当前读:SQL读取的数据是最新版本。通过锁机制来保证读取的数据无法通过其他事务进行修改
在可重复读的隔离级别下,MVCC具体操作:
(1)SELECT操作:InnoDB遵循以下两个规则:
(2)INSERT:InnoDB为新插入的每一行保存当前事务编号作为行版本号。 (3)DELETE:InnoDB为删除的每一行保存当前事务编号作为行删除标识。 (4)UPDATE:InnoDB为插入一行新记录,保存当前事务编号作为行版本号,同时保存当前事务编号到原来的行作为行删除标识。 保存这两个额外系统版本号,使大多数读操作都可以不用加锁。这样设计使得读数据操作很简单,性能很好,并且也能保证只会读取到符合标准的行,不足之处是每行记录都需要额外的存储空间,需要做更多的行检查工作,以及一些额外的维护工作。
持久性的实现关键在于redo log日志,
在执行SQL时会保存已执行的SQL语句到一个指定的Log文件,当执行recovery
时重新执行redo log
记录的SQL操作。
3.1、redo log日志:
当向数据库写入数据时,执行过程会首先写入Buffer Pool,Buffer Pool中修改的数据会定期刷新到磁盘中(这一过程叫做刷盘),这整一过程称为redo log。redo log 分为:
Buffer Pool的使用可以大大提高了读写数据的效率,但是也带了新的问题:如果MySQL宕机,而此时Buffer Pool中修改的数据在内存还没有刷新到磁盘,就会导致数据的丢失,事务的持久性无法保证。
为了确保事务的持久性,在当事务提交时,会调用fsync接口对redo log进行刷盘, (即redo log buffer
写日志到磁盘的redo log file
中 ),刷新频率由 innodb_flush_log_at_trx_commit
变量来控制的:
一致性指的是事务不能破坏数据的完整性和业务的一致性 :
那是如何保证数据一致性的?其实数据一致性是通过事务的原子性、持久性和隔离性来保证的:
发布者:全栈程序员栈长,转转请注明出处:https://javaforall.cn/100012.html原文链接: