上一篇我们简单说了一下flink基于java spi创建自定义的数据源source和sink的基本原理,这一篇我们结合实际案例具体说一下实现过程
下面我们先来看一下创建的时序图
从上图可知要实现自定义的source和sink,要实现如下几步
1.ExternalCatalog的自定义实现
2.ConnectorDescriptor的自定义实现
3.引入flink kafka依赖
4.schema format的自定义的实现(实现序列化和反序列)
具体实现代码还在整理中。。。。
本文分享自 作者个人站点/博客 前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!