有奖捉虫:办公协同&微信生态&物联网文档专题 HOT



参数详情:
参数
说明
数据源
Kafka 读取端数据源类型支持 Kafka、Ckafka
topic
Kafka 的 Topic,是 Kafka 处理资源的消息源(feeds of messages)的聚合
序列化格式
需要读取的 Kafka 数据,支持常量列、数据列和属性列:
常量列:使用单引号包裹的列为常量列,例如["'abc'", "'123'"]
数据列
如果您的数据是一个 JSON,支持获取 JSON 的属性,例如["event_id"]
如果您的数据是一个 JSON,支持获取 JSON 的嵌套子属性,例如["tag.desc"]
属性列
__key__表示消息的 key
__value__表示消息的完整内容 
__partition__表示当前消息所在分区
__headers__表示当前消息 headers 信息
__offset__表示当前消息的偏移量
__timestamp__表示当前消息的时间戳
消费组 id
避免该参数与其他消费进程重复,以保证消费位点的正确性。如果不指定该参数,默认设定 group.id=WeData_ group_${任务id}
周期起始位点
任务周期运行时,每次读取 Kafka 的开始位点。默认上周期计划调度时间,可选:分区起始位点、消费组当前位点、指定位点、指定时间
指定时间:数据写入 Kafka 的时候自动生成一个 unixtime 时间戳作为该数据的时间记录。同步任务通过获取用户配置的 yyyymmddhhmmss 数值,将该值转成 unixtimestamp 后从 kafka 中读取相应数据。例如,"beginDateTime": "20210125000000"
分区起始位点:从 kafka topic 每个分区没有删除的位点最小的数据开始抽取数据
消费组当前位点:从任务配置上面指定的消费群组 ID 保存的位点开始读取数据,一般是使用这个群组 ID 读数据的进程上次停止的位点(最好确保使用这个群组 ID 的进程只有配置的这个数据集成任务,避免共用群组 ID 造成数据丢失),如果使用群组当前位点,一定要配置消费群组 ID,否则数据集成任务会随机生成一个群组ID,而新的群组 ID 因为没有保存过位点,根据位点重置策略的不同会引起任务报错或从开始或结束位点开始读取数据。另外群组位点在客户端会定时自动提交到 Kafka 服务端,所以在任务失败后,如果重跑任务时,可能有数据重复或者丢失,另外向导模式下会自动丢弃读到的超过结束位点的记录,而这些丢弃数据的群组位点已经提交到服务端,在下一个周期任务运行时将无法读到这些丢弃的数据
周期结束位点
任务周期运行时,每次读取 Kafka 的结束位点。默认本周期计划调度时间。当 keyType 或 valueType 配置为STRING 时,将使用该配置项指定的编码解析字符串
位点读取模式
手动运行同步任务时开始同步数据的起始位点。提供两种读取模式:
latest:从上次偏移位置读取
earlist:从开始位点读取