MySQL主从不一致的修复过程(r10笔记第96天)

昨天发现一个5.7的MySQL从库在应用日志的时候报出了错误。从库启用过了并行复制。Last Error的内容为:

Last_Error: Coordinator stopped because there were error(s) in the  worker(s). The most recent failure being: Worker 0 failed executing  transaction '8fc8d9ac-a62b-11e6-a3ee-a4badb1b4a00:7649' at master log  mysql-bin.000011, end_log_pos 5290535. See error log and/or  performance_schema.replication_applier_status_by_worker table for more  details about this failure or others, if any.

对于这类问题看起来还是比较陌生,如果想查看一些明细的信息,可以到binlog里面看到一些。此处的relay log是teststd-relay-bin.000013

/usr/local/mysql/bin/mysqlbinlog --no-defaults  --base64-output=DECODE-ROWS --verbose teststd-relay-bin.000013 >  /tmp/mysqlbin.log

而修复方式和常规的略有一些差别。

STOP SLAVE;
SET @@SESSION.GTID_NEXT = '8fc8d9ac-a62b-11e6-a3ee-a4badb1b4a00:7649';
BEGIN; COMMIT;
SET @@SESSION.GTID_NEXT = AUTOMATIC;
START SLAVE;

然后再次应用,不过我发现我这列碰到的问题貌似比想象的要麻烦一些。可以从错误日志看出是在更修改backend数据库的表sys_user_audit的时候抛出了错误。

2016-11-29T00:03:58.754386+08:00 161 [Note] Slave SQL thread for channel  '' initialized, starting replication in log 'mysql-bin.000011' at  position 5290028, relay log './teststd-relay-bin.000013' position: 27175
2016-11-29T00:03:58.754987+08:00 162 [ERROR] Slave SQL for channel '': Worker 0 failed executing transaction '8fc8d9ac-a62b-11e6-a3ee-a4badb1b4a00:7649' at master log mysql-bin.000011, end_log_pos 5290535; Could not execute Update_rows event on table backend.sys_user_audit; Can't find record in 'sys_user_audit', Error_code: 1032; handler error HA_ERR_KEY_NOT_FOUND; the event's master log FIRST, end_log_pos 5290535, Error_code: 1032  

手工跳过了几次之后,发现这样也不是事儿,如果这样的问题较多,可以直接修改参数slave_exec_mode来完成。

set global slave_exec_mode=IDEMPOTENT;

当然这种方式解决当前问题还是比较合适的,跟上了主库的变更,重新设置为原值。

set global slave_exec_mode=STRICT;很快从库的状态就正常了,但是又一个新的问题又来了。主从数据库的数据怎么不一致了。而且更加直接的是我对这个表在主从做了对比,发现数据是不一致的,从库的数据比主库少了9条。如此一来,这个从库就是不合格的。

怎么修复数据呢,一种直接的方式就是重建从库,但是这样不是一个很好的方案。还有其它的方案吗,使用navicator也是一个不错的方案,图形界面点点配配就可以完成。还有一种方案是使用pt工具来修复。

早就耳闻,今天终于感受了一下。

首先安装很常规,可以参考我之前的一篇文章。Percona-toolkit的安装和配置(r8笔记第86天)其实就是下载解压,基本的安装。

在主从库各创建一个临时作为同步的用户,先做checksum,然后根据checksum的情况来修复数据,这样就涉及两个命令行工具,pt-table-checksum和 pt-table-sync,当然这两个工具的选项很多,我只做一些基本的操作。

创建用户的方式如下,需要做对比主从checksum的数据库为backend

GRANT SELECT, PROCESS, SUPER, REPLICATION SLAVE ON *.* TO 'pt_checksum'@'10.127.%.%' IDENTIFIED BY 'pt_checksum';

创建的临时数据库为percona,也需要赋予相应的权限。

grant all on percona.* to 'pt_checksum'@'10.127.%.%' ;

checksum的过程其实很复杂,大体有一下的步骤,当然我们可以简化一下,达到目标然后再深究。

在主库端开始做checksum,如果碰到下面的错误。

# pt-table-checksum h='10.127.128.99',u='pt_checksum',p='pt_checksum',P=3306 -d backend --nocheck-replication-filters --replicate=percona.checksums Replica teststd.test.com has binlog_format ROW which could cause pt-table-checksum to break replication. Please read "Replicas using row-based replication" in the LIMITATIONS section of the tool's documentation. If you understand the risks, specify --no-check-binlog-format to disable this check.

这个选项的具体含义后续再琢磨,在row模式下会有这种警告,可以忽略这项检查。

[root@testdb2 bin]# pt-table-checksum  h='10.127.128.99',u='pt_checksum',p='pt_checksum',P=3306 -d backend  --nocheck-replication-filters --replicate=percona.checksums    --no-check-binlog-format
            TS ERRORS  DIFFS     ROWS  CHUNKS SKIPPED    TIME TABLE
11-29T17:45:34      0      0      105       1       0   0.017 backend.sys_resource
11-29T17:45:34      0      0       17       1       0   0.015 backend.sys_role
11-29T17:45:34      0      1       99       1       0   0.017 backend.sys_user
11-29T17:45:34      0      1      172       1       0   0.017 backend.sys_user_audit

完成之后,在percona下会就生成一个表,里面的数据就是一些对比的元数据,如果存在差别则会有diffs字段会有标示

如果确认无误,可以开始修复数据,借助pt-table-sync,先把SQL输出不执行,把主库和从库的信息都正确输入。

pt-table-sync --print --replicate=percona.checksums h=10.127.128.99,u=pt_checksum,p=pt_checksum,P=3306 h=10.127.130.58,u=pt_checksum,p=pt_checksum,P=3306

而这个操作的原理其实就是replace into。

REPLACE INTO `backend`.`sys_user`(`id`, `user_name`, xxxx) VALUES ('100', 'songlijiao@test-inc.com', 'songlijiao', xxxxx) /*percona-toolkit src_db:backend src_tbl:sys_user src_dsn:P=3306,h=10.127.128.99,p=...,u=pt_checksum dst_db:backend dst_tbl:sys_user dst_dsn:P=3306,h=teststd.test.com,p=...,u=pt_checksum lock:1 transaction:1 changing_src:percona.checksums replicate:percona.checksums bidirectional:0 pid:28684 user:root host:testdb2.test.com*/;

切记要注意权限,对于这个同步数据的用户要开通操作目标数据库的权限。

grant insert,delete,update,select on backend.* to 'pt_checksum'@'10.127.%.%' ;

这个过程持续的时间不长,很快就能够执行完毕,修复之后再次做checksum就完全正常了。

原文发布于微信公众号 - 杨建荣的学习笔记(jianrong-notes)

原文发表时间:2016-11-29

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据和云

MySQL 传统复制中常见故障处理和结构优化案例分析

虽然MySQL5.7 的主从复制已经很稳定了,但在备库可读写的情况下,总是会出现部分数据不一致的情况,例如常见的1062、1032和1050错误。下面就介绍下这...

30970
来自专栏杨建荣的学习笔记

Greenplum集群部署小记

Greenplum的分布式架构方案MPP对于海量数据处理还是很给力的,今天专门抽时间搭建了一下测试环境。

35220
来自专栏王磊的博客

Spring Boot 最佳实践(五)Spring Data JPA 操作 MySQL 8

JPA(Java Persistence API)Java持久化API,是 Java 持久化的标准规范,Hibernate是持久化规范的技术实现,而Spring...

29320
来自专栏乐沙弥的世界

基于Innobackupex的全备恢复

    对于MySQL数据库的热备,xtrabackup是大多数DBA朋友们的选择。xtrabackup内嵌了一个innobackupex可用于热备MySQL数...

42720
来自专栏张戈的专栏

gh-ost:在线DDL修改MySQL表结构工具

在之前,我分享过一次 pt-online-schema-change 在线 DDL 的工具实践记录,在实际使用过程中,发现部门的很多老系统大量使用了触发器,从而...

1K70
来自专栏SpringBoot 核心技术

第三十九章:基于SpringBoot & Quartz完成定时任务分布式单节点持久化

721100
来自专栏北京马哥教育

MySQL存储日志并使用Loganalyzer作为前端展示

为什么要使用日志 在生产环境中我们可能需要一个较为完整的日志系统来查看运行中主机服务的状态和所作出的操作,我们可以在较大型的网络架构中使用ELK来实现对日志的收...

34290
来自专栏数据和云

实战课堂:为什么更换存储之后一切正常但RAC集群启动不了?

这是一次来自生产实践的真实案例,某客户核心生产库由于进行新老存储替换变更操作后,Oracle RAC 两个节点均无法打开,数据库遭遇严重故障。

13930
来自专栏杨建荣的学习笔记

Oracle 12c DG新特性Far Sync(r10笔记第67天)

Oracle的Data Guard技术再11g中有了Active Data Guard,就产生了很多的技术解决方案,比如读写分离,多活的技术支撑等。 12c 中...

52670
来自专栏乐沙弥的世界

基于Innobackupex的完全恢复

    对于MySQL的完全恢复,我们可以借助于Innobackupex的多重备份加上binlog来将数据库恢复到故障点。这里的完全恢复是相对于时点恢复(也叫...

15120

扫码关注云+社区

领取腾讯云代金券