前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >使用canal-deployer实现mysql数据同步

使用canal-deployer实现mysql数据同步

原创
作者头像
shigen
发布2024-01-10 13:29:53
1940
发布2024-01-10 13:29:53
举报

shigen坚持更新文章的博客写手,擅长Java、python、vue、shell等编程语言和各种应用程序、脚本的开发。记录成长,分享认知,留住感动。

shigen之前的文章当中,苦于mysql和elasticsearch之间的数据同步问题,甚至尝试开源一款mysql-es数据同步工具 - 掘金。觉得可以自己去实现这些同步。但是遇到了的问题也很多:

shigen的开源项目
shigen的开源项目

尤其是这样的下了血本,还是没有人使用怎么办,或者还是比不上cannel怎么办?人家毕竟是阿里推出的,能扛大数据的。最终我选择了妥协,趁着上午的时间研究了一下canal-deployer

要学习这个,我觉得最好的工具依然是官网:QuickStart

按照这个过程,我首先启动了我的mysql主从节点,相关的教程可参考shigen之前的文章:mysql主从服务的搭建 - 掘金

并确保主从服务是可以正常的同步的:

现在的操作我们严格按照官网的提示来做,可能很多人包括我自己遇到问题的时候也会接住于各种搜索引擎搜索,尤其是某DN,但是垃圾文章太多。这里,首推还是官方文档

这里,我们再次确认主节点开启了mysql的bin-log日志:

代码语言:SQL
复制
#是否开启binlog,ROW模式
show variables like 'log_bin%';
show variables like 'binlog_format%';
show variables like '%server_id%';

一切正常,创建canal用户实现数据的同步:

代码语言:SQL
复制
CREATE USER canal IDENTIFIED BY 'canal';
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
FLUSH PRIVILEGES;

好的,准备工作就绪。现在只需要修改一下canal-deployer的配置文件即可。

代码语言:Shell
复制
vim ./conf/example/instance.properties

修改对应的mysql地址即可。

启动canal-deployer服务:

代码语言:Shell
复制
bash ./bin/startup.sh

这时我们只能看到对应的启动参数,看不到日志。

看日志,我们使用这样的命令:

代码语言:Shell
复制
tail -f ./logs/example/example.log

大致是这样的,表明我们的canal服务启动成功。

启动成功的标志之一就是:我们查看slave的节点,多了一项:

代码语言:SQL
复制
show slave hosts;

接下来的使用官方也给了案例:ClientExample

大体的意思就是导入依赖,跑代码即可。

代码语言:XML
复制
<dependency>
    <groupId>com.alibaba.otter</groupId>
    <artifactId>canal.client</artifactId>
    <version>1.1.0</version>
</dependency>

案例代码:

代码语言:Java
复制
public class SimpleCanalClientExample {


    public static void main(String[] args) {
        // 创建链接
        CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress(AddressUtils.getHostIp(),
            11111), "example", "", "");
        int batchSize = 1000;
        int emptyCount = 0;
        try {
            connector.connect();
            connector.subscribe(".*\\..*");
            connector.rollback();
            int totalEmptyCount = 120;
            while (emptyCount < totalEmptyCount) {
                Message message = connector.getWithoutAck(batchSize); // 获取指定数量的数据
                long batchId = message.getId();
                int size = message.getEntries().size();
                if (batchId == -1 || size == 0) {
                    emptyCount++;
                    System.out.println("empty count : " + emptyCount);
                    try {
                        Thread.sleep(1000);
                    } catch (InterruptedException e) {
                    }
                } else {
                    emptyCount = 0;
                    System.out.printf("message[batchId=%s,size=%s] \n", batchId, size);
                    printEntry(message.getEntries());
                }

                connector.ack(batchId); // 提交确认
                // connector.rollback(batchId); // 处理失败, 回滚数据
            }

            System.out.println("empty too many times, exit");
        } finally {
            connector.disconnect();
        }
    }

    private static void printEntry(List<Entry> entrys) {
        for (Entry entry : entrys) {
            if (entry.getEntryType() == EntryType.TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
                continue;
            }

            RowChange rowChage = null;
            try {
                rowChage = RowChange.parseFrom(entry.getStoreValue());
            } catch (Exception e) {
                throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(),
                    e);
            }

            EventType eventType = rowChage.getEventType();
            System.out.println(String.format("================&gt; binlog[%s:%s] , name[%s,%s] , eventType : %s",
                entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
                entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
                eventType));

            for (RowData rowData : rowChage.getRowDatasList()) {
                if (eventType == EventType.DELETE) {
                    printColumn(rowData.getBeforeColumnsList());
                } else if (eventType == EventType.INSERT) {
                    printColumn(rowData.getAfterColumnsList());
                } else {
                    System.out.println("-------&gt; before");
                    printColumn(rowData.getBeforeColumnsList());
                    System.out.println("-------&gt; after");
                    printColumn(rowData.getAfterColumnsList());
                }
            }
        }
    }

    private static void printColumn(List<Column> columns) {
        for (Column column : columns) {
            System.out.println(column.getName() + " : " + column.getValue() + "    update=" + column.getUpdated());
        }
    }

}

我在数据库中随意的更改数据,观察控制台输出:

那么数据的更新包括字段的更新就显而易见了。

那这个跟elasticsearch的数据同步有什么关系呢?毕竟官方出品了:ClientAdapter。直接几个配置文件搞定同步,根本不需要写任何的代码。

shigen的看法是:萝卜青菜,各有所爱。采用这种同步的方式,我们的逻辑里可以有更多自定义的操作。如:我们删除了文件记录,也要删除对应的磁盘文件,那这就需要我们自定义同步的逻辑了。


以上就是今天分享的全部内容了,觉得不错的话,记得点赞 在看 关注支持一下哈,您的鼓励和支持将是shigen坚持日更的动力。同时,shigen在多个平台都有文章的同步,也可以同步的浏览和订阅:

平台

账号

链接

CSDN

shigen01

知乎

gen-2019

掘金

shigen01

腾讯云开发者社区

shigen

微信公众平台

shigen

公众号名:shigen

shigen一起,每天不一样!

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云数据库 MySQL
腾讯云数据库 MySQL(TencentDB for MySQL)为用户提供安全可靠,性能卓越、易于维护的企业级云数据库服务。其具备6大企业级特性,包括企业级定制内核、企业级高可用、企业级高可靠、企业级安全、企业级扩展以及企业级智能运维。通过使用腾讯云数据库 MySQL,可实现分钟级别的数据库部署、弹性扩展以及全自动化的运维管理,不仅经济实惠,而且稳定可靠,易于运维。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档