前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Mysql实时数据变更事件捕获kafka confluent之debezium

Mysql实时数据变更事件捕获kafka confluent之debezium

作者头像
XING辋
发布2019-03-26 11:33:22
3.4K0
发布2019-03-26 11:33:22
举报
文章被收录于专栏:M莫的博客M莫的博客

official Debezium,demo https://github.com/moxingwang/kafka

本文主要讲在kafka confluent的基础上如何使用debezium插件获取mysql binlog数据事件完成实时数据流,debezium是以插件的方式配合confluent使用。

如果你的后端应用数据存储使用的MySQL,项目中如果有这样的业务场景你会怎么做呢?

  • 分库分表数据拆分和迁移
  • 历史数据同步分析
  • 异步处理
  • 多个应用之间数据同步和共享
  • 建立elasticsearch搜索

对于最简单最直接的做法就是修改原有应用的代码,在数据发生改变的同时通知下游系统,或者数据改变发送MQ,下游系统消费消息。这样的设计虽然看似简单,但是实现真的很麻烦,数据库表多、业务复杂,各种业务代码里面到处是增删改,这样的设计后期难以维护,也难以保证数据一致性和可靠性。

试想有没有可靠的替代方案,无需代码侵入,当数据库发生改变的时候,这些改变都是一个一个的data change事件发布到相应的中间件,下游系统订阅消息,这个设计就不得不提大名鼎鼎的kafka confluent了。

Kafka connect是Confluent公司(当时开发出Apache Kafka的核心团队成员出来创立的新公司)开发的confluent platform的核心功能.大家都知道现在数据的ETL过程经常会选择kafka作为消息中间件应用在离线和实时的使用场景中,而kafka的数据上游和下游一直没有一个无缝衔接的pipeline来实现统一,比如会选择flume或者logstash采集数据到kafka,然后kafka又通过其他方式pull或者push数据到目标存储.而kafka connect旨在围绕kafka构建一个可伸缩的,可靠的数据流通道,通过kafka connect可以快速实现大量数据进出kafka从而和其他源数据源或者目标数据源进行交互构造一个低延迟的数据pipeline。具体官网文档https://www.confluent.io/.

虽然kafka confluent提供了JDBC Connector使用JDBC的方式去获取数据源,这种方式kafka connector追踪每个表中检索到的组继续记录,可以在下一次迭代或者崩溃的情况下寻找到正确的位置,这里存在几种实现模式,具体可以参考官网说明JDBC Source Connector。但是我这里推荐使用debezium,这种方式基于MySQL binlog的特性,首先你需要了解什么是debezium。

debezium是一个开源的分布式CDC(变更数据捕获)系统,支持对接各种数据源,将上游已持久化的数据变更捕获后写入消息队列,其特性查看官网How it works,类似的CDC系统还有Canal

debezium使用

部署kafka confluent

如何部署kafka confluent这里不再描述,可以参考我的Kafka Confluent安装部署这篇文章。

安装debezium插件
  • 下载 官网地址debezium,下载连接MySQL Connector plugin archive
  • 安装插件Debezium 把解压后的debezium复制到conlfuent安装目录share/java文件中,如 1/Users/mo/runtime/confluent-4.1.2/share/java/debezium-connector-mysql
  • 再次启动confluent即可

debezium使用

以下操作都在本地部署测试。

使用debezium之前必须先开启mysql得binlog,这里不再叙述,具体可以参考我的Linux安装Java、Maven、Mysql、RabbitMQ这篇;接下来构建一个kafka connect来使用debezium插件,confluent提供了restful api可快速创建kafka connect。

创建kafka connect连接

1234567891011121314151617

curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" http://localhost:8083/connectors/ -d ' { "name": "mysql-connector", "config": { "connector.class": "io.debezium.connector.mysql.MySqlConnector", "database.hostname": "localhost", "database.port": "3306", "database.user": "root", "database.password": "debezium", "database.server.id": "1", "database.server.name": "dbserver1", "database.history.kafka.bootstrap.servers": "localhost:9092", "database.history.kafka.topic": "dbhistory.inventory", "include.schema.changes": "true" } } '

注意:这里的脚本其实是一行,我为了方便查看展开了json。复制可用的脚本:

1

curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" http://localhost:8083/connectors/ -d '{"name":"mysql-connector","config": { "connector.class": "io.debezium.connector.mysql.MySqlConnector", "database.hostname": "localhost", "database.port": "3306", "database.user": "root", "database.password": "debezium", "database.server.id": "1", "database.server.name": "dbserver1", "database.history.kafka.bootstrap.servers": "localhost:9092", "database.history.kafka.topic": "dbhistory.inventory" , "include.schema.changes": "true" }}'

如下图,说明连接创建成功。

也可以通过curl -H "Accept:application/json" localhost:8083/查看已创建成功的connect,如图。

验证

debezium会读取MySQL binlog产生数据改变事件,将事件发送到kafka队列,最简单的验证办法就是监听这些队列(这些队列按照表名区分)具体参考代码请查看https://github.com/moxingwang/kafka

这里我们观察数据库的inventory.customers表,监听dbserver1.inventory.customers队列。

首先将customers表id为1004的email字段内容update如图。

此时,应用消费者会立马收到一条消费消息。

123456789

2018-08-20 19:57:20.742 INFO 3447 --- [ t34-0-C-1] com.mo.debezium.SpringBootKafkaConsumer : ConsumerRecord( topic = dbserver1.inventory.customers, partition = 0, offset = 4, CreateTime = 1534766239965, serialized key size = 7, serialized value size = 151, headers = RecordHeaders(headers = [], isReadOnly = false), key = {"id": 1004}, value = {"before": {"id": 1004, "first_name": "Anne", "last_name": "Kretchmar", "email": "[email protected]"}, "after": {"id": 1004, "first_name": "Anne", "last_name": "Kretchmar", "email": "[email protected]"}, "source": {"name": "dbserver1", "server_id": 223344, "ts_sec": 1534766241, "gtid": null, "file": "mysql-bin.000003", "pos": 364, "row": 0, "snapshot": null, "thread": 7, "db": "inventory", "table": "customers"}, "op": "u", "ts_ms": 1534766239592} )

到此我们的debezium方案已介绍完毕,使用起来也是相对比较加单的。

常见问题

参考

后期持续跟新。

关键词

confluent, kafka, kafka connect, debezium, schemas-registry

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-08-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • debezium使用
  • debezium使用
  • 常见问题
  • 参考
相关产品与服务
文件存储
文件存储(Cloud File Storage,CFS)为您提供安全可靠、可扩展的共享文件存储服务。文件存储可与腾讯云服务器、容器服务、批量计算等服务搭配使用,为多个计算节点提供容量和性能可弹性扩展的高性能共享存储。腾讯云文件存储的管理界面简单、易使用,可实现对现有应用的无缝集成;按实际用量付费,为您节约成本,简化 IT 运维工作。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档