official Debezium,demo https://github.com/moxingwang/kafka
本文主要讲在kafka confluent的基础上如何使用debezium插件获取mysql binlog数据事件完成实时数据流,debezium是以插件的方式配合confluent使用。
如果你的后端应用数据存储使用的MySQL,项目中如果有这样的业务场景你会怎么做呢?
对于最简单最直接的做法就是修改原有应用的代码,在数据发生改变的同时通知下游系统,或者数据改变发送MQ,下游系统消费消息。这样的设计虽然看似简单,但是实现真的很麻烦,数据库表多、业务复杂,各种业务代码里面到处是增删改,这样的设计后期难以维护,也难以保证数据一致性和可靠性。
试想有没有可靠的替代方案,无需代码侵入,当数据库发生改变的时候,这些改变都是一个一个的data change事件发布到相应的中间件,下游系统订阅消息,这个设计就不得不提大名鼎鼎的kafka confluent了。
Kafka connect是Confluent公司(当时开发出Apache Kafka的核心团队成员出来创立的新公司)开发的confluent platform的核心功能.大家都知道现在数据的ETL过程经常会选择kafka作为消息中间件应用在离线和实时的使用场景中,而kafka的数据上游和下游一直没有一个无缝衔接的pipeline来实现统一,比如会选择flume或者logstash采集数据到kafka,然后kafka又通过其他方式pull或者push数据到目标存储.而kafka connect旨在围绕kafka构建一个可伸缩的,可靠的数据流通道,通过kafka connect可以快速实现大量数据进出kafka从而和其他源数据源或者目标数据源进行交互构造一个低延迟的数据pipeline。具体官网文档https://www.confluent.io/.
虽然kafka confluent提供了JDBC Connector
使用JDBC的方式去获取数据源,这种方式kafka connector追踪每个表中检索到的组继续记录,可以在下一次迭代或者崩溃的情况下寻找到正确的位置,这里存在几种实现模式,具体可以参考官网说明JDBC Source Connector。但是我这里推荐使用debezium,这种方式基于MySQL binlog的特性,首先你需要了解什么是debezium。
debezium是一个开源的分布式CDC(变更数据捕获)系统,支持对接各种数据源,将上游已持久化的数据变更捕获后写入消息队列,其特性查看官网How it works,类似的CDC系统还有Canal
。
如何部署kafka confluent这里不再描述,可以参考我的Kafka Confluent安装部署这篇文章。
以下操作都在本地部署测试。
使用debezium之前必须先开启mysql得binlog,这里不再叙述,具体可以参考我的Linux安装Java、Maven、Mysql、RabbitMQ这篇;接下来构建一个kafka connect来使用debezium插件,confluent提供了restful api可快速创建kafka connect。
1234567891011121314151617 | curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" http://localhost:8083/connectors/ -d ' { "name": "mysql-connector", "config": { "connector.class": "io.debezium.connector.mysql.MySqlConnector", "database.hostname": "localhost", "database.port": "3306", "database.user": "root", "database.password": "debezium", "database.server.id": "1", "database.server.name": "dbserver1", "database.history.kafka.bootstrap.servers": "localhost:9092", "database.history.kafka.topic": "dbhistory.inventory", "include.schema.changes": "true" } } ' |
---|
注意:
这里的脚本其实是一行,我为了方便查看展开了json。复制可用的脚本:
1 | curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" http://localhost:8083/connectors/ -d '{"name":"mysql-connector","config": { "connector.class": "io.debezium.connector.mysql.MySqlConnector", "database.hostname": "localhost", "database.port": "3306", "database.user": "root", "database.password": "debezium", "database.server.id": "1", "database.server.name": "dbserver1", "database.history.kafka.bootstrap.servers": "localhost:9092", "database.history.kafka.topic": "dbhistory.inventory" , "include.schema.changes": "true" }}' |
---|
如下图,说明连接创建成功。
也可以通过curl -H "Accept:application/json" localhost:8083/
查看已创建成功的connect,如图。
debezium会读取MySQL binlog产生数据改变事件,将事件发送到kafka队列,最简单的验证办法就是监听这些队列(这些队列按照表名区分)具体参考代码请查看https://github.com/moxingwang/kafka。
这里我们观察数据库的inventory.customers
表,监听dbserver1.inventory.customers
队列。
首先将customers表id为1004的email字段内容update如图。
此时,应用消费者会立马收到一条消费消息。
123456789 | 2018-08-20 19:57:20.742 INFO 3447 --- [ t34-0-C-1] com.mo.debezium.SpringBootKafkaConsumer : ConsumerRecord( topic = dbserver1.inventory.customers, partition = 0, offset = 4, CreateTime = 1534766239965, serialized key size = 7, serialized value size = 151, headers = RecordHeaders(headers = [], isReadOnly = false), key = {"id": 1004}, value = {"before": {"id": 1004, "first_name": "Anne", "last_name": "Kretchmar", "email": "[email protected]"}, "after": {"id": 1004, "first_name": "Anne", "last_name": "Kretchmar", "email": "[email protected]"}, "source": {"name": "dbserver1", "server_id": 223344, "ts_sec": 1534766241, "gtid": null, "file": "mysql-bin.000003", "pos": 364, "row": 0, "snapshot": null, "thread": 7, "db": "inventory", "table": "customers"}, "op": "u", "ts_ms": 1534766239592} ) |
---|
到此我们的debezium方案已介绍完毕,使用起来也是相对比较加单的。
后期持续跟新。
confluent, kafka, kafka connect, debezium, schemas-registry