首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

记录一次Mysql死锁排查过程

00000002; asc ;; 1: len 4; hex 00000002; asc ;; 从日志的HOLDS THE LOCKS(S)块中我们可以看到事务2持有索引a的X锁,并且是记录锁...由于是RR隔离模式下的基于唯一索引的等值查询(Where a = 2),所以会申请一个记录锁,而非next-key锁。...这是因为a字段是一个唯一索引,所以insert语句会在插入前进行一次duplicate key的检查,为了使这次检查成功,需要申请S锁防止其他事务对a字段进行修改。 那么为什么该S锁会失败呢?...为了让大家更好地理解死锁形成的原因,我们再通过表格的形式阐述死锁形成的流程: 步骤 事务1 事务2 1 begin 2 delete from test where a = 2; 执行成功,事务2占有a=2下的X锁,类型为记录锁...我们还是通过表格来详细说明该死锁产生的流程: 步骤 事务1 事务2 1 begin 2 delete from test where a = 2; 执行成功,事务2占有a=2下的X锁,类型为记录锁。

1.1K40

记录一次MySQL大表拆分和迁移

背景# 最近遇到一个关于MySQL单表过大的问题,该表存放的主要是日志文件,且其中有一个字段存放的数据过大,导致占用空间过大以及查询效率的降低,这种设计其实是不合理的。...解决方案# 根据上面的背景,可得出以下这些问题,也给出了解决方案: 问题 解决方法 1 某字段占用空间较大,在MySQL中为text类型,存储的是json格式的数据,该字段平均占用空间为5KB 对字段进行压缩...具体做法: 每次查询1万条数据 查询的时候只查询需要的字段,即id字段和需要压缩的字段,id字段为主键,采用主键索引 采用分页查询的方式,即每次查询完记录最后一条数据的id,下一次查询直接在这个id的基础上查询...1000条,更新十次,会比一次更新1万条速度快很多,所以下面函数的tempList切片放的数据量是1千条,需要循环该函数10次才是1万条 func batchUpdate(tableName, fieldName...+压缩+更新 1万条数据共花费4s左右时间,那么3亿条数据需要花费大概33小时 2.3 迁移具体步骤# 迁移主要包括查询和插入两个步骤,查询和上面的查询方法一样;经过比较,批量插入的时候每500条插入一次速度最快

1.3K10

MySQLMySQL审计操作记录

简介: 数据库审计能够实时记录网络上的数据库活动,对数据库操作进行细粒度审计的合规性管理,对数据库受到的风险行为进行告警,对攻击行为进行阻断,它通过对用户访问数据库行为的记录、分析和汇报,用来帮助用户事后生成合规报告...、事故追根溯源,同时加强内外部数据库网络行为记录,提高数据资产安全。...MySQL社区版并没有提供审计功能,注意到mariadb提供了一款server_audit审计插件,经测试此插件在MySQL社区版同样适用。...server_audit_syslog_info:指定的info字符串将添加到syslog记录 server_audit_syslog_priority:定义记录日志的syslogd priority...server_audit_excl_users:该列表的用户行为将不记录,connect将不受该设置影响 server_audit_mode:标识版本,用于开发测试 5.卸载 mysql> UNINSTALL

3.9K20

扫码

添加站长 进交流群

领取专属 10元无门槛券

手把手带您无忧上云

扫码加入开发者社群

相关资讯

热门标签

活动推荐

    运营活动

    活动名称
    广告关闭
    领券