行锁就是针对数据表中行记录的锁.
eg : 事务 A 更新了一行,而这时候事务 B 也要更新同一行,则必须等事务 A 的操作完成后才能进行更新
mysql的行锁是在引擎层由各个引擎自己实现的.
并不是所有的引擎都支持行锁, 比如myisam引擎就不支持行锁, 对于并发,myisam只能使用表锁, 这也是被替代的重要原因.
在下面的操作序列中,事务 B 的 update 语句执行时会是什么现象呢?假设字段 id 是表 t 的主键
这个问题解决关键是在于事务A 在执行完两条update语句后, 持有哪些锁,以及在什么时候释放.
实际上. 事务b的update语句会被阻塞. 直到事务A 执行commit之后, B才可能继续执行.
事实上事务A持有的两个记录的行锁. 都是在commit之后才会释放.
在innodb事务中. 行锁是在需要的时候才加上的. 但并不是不需要了就立刻释放, 而是要等到事务结束时才释放. 这就两阶段锁协议
如果你的事务中需要锁多个行,要把最可能造成锁冲突、最可能影响并发度的锁尽量往后放
假设你负责实现一个电影票在线交易业务,顾客 A 要在影院 B 购买电影票。我们简化一点,这个业务需要涉及到以下操作:
完成上述操作需要update两条记录. 并insert一条记录. 而且为了保证交易的原子性. 我们需要把三个操作放到一个事务中.
试想如果同时有另外一个顾客 C 要在影院 B 买票,那么这两个事务冲突的部分就是语句 2 了. 因为它们要更新同一个影院账户的余额,需要修改同一行数据.
根据两阶段协议. 不论怎么安排语句顺序. 所有的操作需要的行锁都是在事务提交的时候才会释放.
所以如果你把二语句放在最后, 按照312这样的顺序, 那么影院账户余额这一行的锁时间就最少. 这就最大程度的减少了事务之间等待锁的时间, 提升了并发度
但是这并不能完全的解决问题.
如果这个影院做活动,可以低价预售一年内所有的电影票,而且这个活动只做一天。于是在活动时间开始的时候,你的 MySQL 就挂了。你登上服务器一看,CPU 消耗接近 100%,但整个数据库每秒就执行不到 100 个事务。这是什么原因呢?
当并发系统中不同线程出现循环资源依赖, 涉及的线程都在等待别的线程释放资源时. 就会导致这几个线程都进入无限等待状态, 称为死锁.
这时候, 事务A在等待事务B释放id=2的行锁, 而事务b在等待事务A释放id=1的行锁.
事务a与b在相互等待对方的资源释放. 就是进入了死锁
在innodb中. innodb_lock_wait_timeout 的默认值是50s. 意味着如果采用第一个策略. 当出现死锁后, 第一个被锁住的线程需要50s才会超时退出. 其他线程才有可能继续执行. 这对于在线服务来说, 这个时间往往是无法接收的.
但是我们又不可能把这个时间设置成一个很小的值, eg1s. 这样当出现死锁的时候,确实很快就可以解开,但如果不是死锁,而是简单的锁等待呢?所以,超时时间设置太短的话,会出现很多误伤。
innodb_deadlock_detect 的默认值本身就是 on
主动死锁检测在发生死锁的时候,是能够快速发现并进行处理的,但是它也是有额外负担的。你可以想象一下这个过程:每当一个事务被锁的时
这个过程是: 每当一个事务被锁的时候,就要看看它所依赖的线程有没有被别人锁住,如此循环,最后判断是否出现了循环等待,也就是死锁
那如果是我们上面说到的所有事务都要更新同一行的场景呢?
每个新来的被堵住的线程,都要判断会不会由于自己的加入导致了死锁,这是一个时间复杂度是 O(n) 的操作。假设有 1000 个并发线程要同时更新同一行,那么死锁检测操作就是 100 万这个量级的。虽然最终检测的结果是没有死锁,但是这期间要消耗大量的 CPU 资源。因此,你就会看到 CPU 利用率很高,但是每秒却执行不了几个事务.
如果事务中需要锁多行. 尽量把可能造成锁冲突, 最可能影响并发度的锁的神器给你时间往后放.
减少思索的主要方向, 就是控制访问相同资源的并发事务量.
关于innodb_deadlock_detect, 每条事务执行前都会检测吗?
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。