作者:一剑飘雪
ClickHouseReader插件实现了从ClickHouse读取数据。在底层实现上,ClickHouseReader通过JDBC连接远程ClickHouse数据库,并执行相应的sql语句将数据从ClickHouse库中SELECT出来。
不同于其他关系型数据库,ClickHouseReader不支持FetchSize.(截止ClickHouse-jdbc版本0.1.48为止)
简而言之,ClickHouseReader通过JDBC连接器连接到远程的ClickHouse数据库,并根据用户配置的信息生成查询SELECT SQL语句,然后发送到远程ClickHouse数据库,并将该SQL执行返回结果使用DataX自定义的数据类型拼装为抽象的数据集,并传递给下游Writer处理。
对于用户配置Table、Column、Where的信息,ClickHouseReader将其拼接为SQL语句发送到ClickHouse数据库;对于用户配置querySql信息,ClickHouseReader直接将其发送到ClickHouse数据库。
{
"job": {
"setting": {
"speed": {
"channel": 3
},
"errorLimit": {
"record": 0,
"percentage": 0.02
}
},
"content": [
{
"reader": {
"name": "clickhousereader",
"parameter": {
"username": "root",
"password": "root",
"column": [
"id",
"name"
],
"splitPk": "db_id",
"connection": [
{
"table": [
"table"
],
"jdbcUrl": [
"jdbc:clickhouse://127.0.0.1:8123/default"
]
}
]
}
},
"writer": {
"name": "streamwriter",
"parameter": {
"print":true
}
}
}
]
}
}
{
"job": {
"setting": {
"speed": {
"channel":1
}
},
"content": [
{
"reader": {
"name": "clickhousereader",
"parameter": {
"username": "root",
"password": "root",
"connection": [
{
"querySql": [
"select db_id,on_line_flag from db_info where db_id < 10;"
],
"jdbcUrl": [
"jdbc:clickhouse://127.0.0.1:8123/default"
]
}
]
}
},
"writer": {
"name": "streamwriter",
"parameter": {
"print": false,
"encoding": "UTF-8"
}
}
}
]
}
}
不支持浮点、日期等其他类型
。如果用户指定其他非支持类型,ClickHouseReader将报错!
如果splitPk不填写,包括不提供splitPk或者splitPk值为空,DataX视作使用单通道同步该表数据。当用户配置querySql时,ClickHouseReader直接忽略table、column、where条件的配置
,querySql优先级大于table、column、where选项。目前ClickHouseReader支持大部分ClickHouse类型,但也存在部分个别类型没有支持的情况,请注意检查你的类型。
下面列出ClickHouseReader针对ClickHouse类型转换列表:
DataX 内部类型 | ClickHouse 数据类型 |
---|---|
Long | Uint8,Uint16,Uint32,Uint64,Int8,Int16,Int32,Int64,Enum8,Enum16 |
Double | Float32,Float64,Decimal |
String | String,FixedString(N) |
Date | Date, Datetime |
Boolean | UInt8 类型,取值限制为 0 或 1 |
Bytes | String |
请注意:
除上述罗列字段类型外,其他类型均不支持,如Array、Nested等
。建表语句:
CREATE TABLE `t_trade_record` (
`id` INT ( 11 ) NOT NULL AUTO_INCREMENT,
`trade_no` BIGINT ( 20 ) NOT NULL,
`order_no` BIGINT ( 20 ),
`pair_id` VARCHAR ( 128 ),
`belonger` VARCHAR ( 128 ),
`login_name` VARCHAR ( 128 ),
`belonger_type` VARCHAR ( 32 ),
`trade_date` date,
`trade_time` TIMESTAMP(0),
`bs_flag` VARCHAR ( 8 ),
`price` DECIMAL ( 16, 8 ),
`quantity` INT ( 11 ),
`income_asset_code` VARCHAR ( 128 ),
`income_fee` DECIMAL ( 16, 8 ),
`update_time` TIMESTAMP(0) NULL,
`insert_time` TIMESTAMP(0) NULL,
PRIMARY KEY ( `id` ) USING BTREE,
UNIQUE INDEX `index_trade_no` ( `trade_no` ) USING BTREE
) ENGINE = INNODB CHARACTER SET = utf8;
插入记录类似于:
INSERT INTO `t_match_record`(`id`, `trade_no`, `order_no`, `pair_id`, `belonger`, `login_name`, `belonger_type`, `trade_date`, `trade_time`, `bs_flag`, `price`, `quantity`, `income_asset_code`, `income_fee`, `update_time`, `insert_time`) VALUES (141135300, 116615441, 115754819, 'ETH-USDT', '2357246974', '131****4807', '0', '2019-04-21', '2019-04-21 00:34:19', 'B', 113.02000000, 0, 'C10001', 0.00001110, '2018-12-21 00:35:00', '2018-12-21 00:35:00');
INSERT INTO `t_match_record`(`id`, `trade_no`, `order_no`, `pair_id`, `belonger`, `login_name`, `belonger_type`, `trade_date`, `trade_time`, `bs_flag`, `price`, `quantity`, `income_asset_code`, `income_fee`, `update_time`, `insert_time`) VALUES (141135299, 116615440, 115754793, 'ETH-USDT', '2357246974', '131****4807', '0', '2019-04-21', '2019-04-21 00:34:19', 'S', 113.02000000, 0, 'C10002', 0.00037297, '2018-12-21 00:35:00', '2018-12-21 00:35:00');
-Xms1024m -Xmx1024m -XX:+HeapDumpOnOutOfMemoryError
通道数 | 是否按照主键切分 | DataX速度(Rec/s) | DataX流量(MB/s) | DataX机器网卡进入流量(MB/s) | DataX机器运行负载 | DB网卡流出流量(MB/s) | DB运行负载 |
---|---|---|---|---|---|---|---|
1 | 是 | 192299 | 21.82 | 36 | 0.6 | 38 | 0.6 |
2 | 是 | 461519 | 52.37 | 92 | 0.75 | 94 | 0.72 |
4 | 是 | 480749 | 54.55 | 96 | 0.9 | 99 | 0.92 |
说明:
ClickHouse在数据存储划分中属于RDBMS系统,对外可以提供强一致性数据查询接口。例如当一次同步任务启动运行过程中,当该库存在其他数据写入方写入数据时,ClickHouseReader完全不会获取到写入更新数据,这是由于数据库本身的快照特性决定的。关于数据库快照特性,请参看MVCC Wikipedia
上述是在ClickHouseReader单线程模型下数据同步一致性的特性,由于ClickHouseReader可以根据用户配置信息使用了并发数据抽取,因此不能严格保证数据一致性:当ClickHouseReader根据splitPk进行数据切分后,会先后启动多个并发任务完成数据同步。由于多个并发任务相互之间不属于同一个读事务,同时多个并发任务存在时间间隔。因此这份数据并不是完整的
、一致的
数据快照信息。
针对多线程的一致性快照需求,在技术上目前无法实现,只能从工程角度解决,工程化的方式存在取舍,我们提供几个解决思路给用户,用户可以自行选择:
ClickHouseReader使用JDBC SELECT语句完成数据抽取工作,因此可以使用SELECT…WHERE…进行增量数据抽取,方式有多种:
对于业务上无字段区分新增、修改数据情况,ClickHouseReader也无法进行增量数据同步,只能同步全量数据。
ClickHouseReader提供querySql语句交给用户自己实现SELECT抽取语句,ClickHouseReader本身对querySql不做任何安全性校验。这块交由DataX用户方自己保证。
数据导入clickhousewriter的插件
使用clickhousewriter的官方jdbc接口, 批量把从reader读入的数据写入ClickHouse
{
"job": {
"setting": {
"speed": {
"channel": 2
}
},
"content": [
{
"reader": {
...
},
"writer": {
"name": "clickhousewriter",
"parameter": {
"username": "default",
"password": "zifei123",
"column":["belonger","belonger_type","bs_flag","id","income_asset_code","income_fee","insert_time","logName","order_no","pair_id","price","quantity","trade_date","trade_no","trade_time","update_time"],
"connection": [
{
"jdbcUrl": "jdbc:clickhouse://127.0.0.1:8123/default",
"table":["XXX"]
}
]
}
}
}
]
}
}
建表语句:
CREATE TABLE default.t_match_record (
id UInt32,
trade_no UInt32,
order_no UInt32,
pair_id String,
belonger String,
login_name String,
belonger_type String,
trade_date Date,
trade_time DateTime,
bs_flag String,
price Decimal64(8),
quantity UInt32,
income_asset_code String,
income_fee Decimal64(8),
insert_time DateTime,
update_time DateTime
)Engine=MergeTree(trade_date,(belonger,pair_id,trade_no,trade_date),8192);
插入记录类似于:
INSERT INTO `default`.`t_match_record`(`id`, `trade_no`, `order_no`, `pair_id`, `belonger`, `login_name`, `belonger_type`, `trade_date`, `trade_time`, `bs_flag`, `price`, `quantity`, `income_asset_code`, `income_fee`, `update_time`, `insert_time`) VALUES (141135300, 116615441, 115754819, 'ETH-USDT', '2357246974', '131****4807', '0', '2019-04-21', '2019-04-21 00:34:19', 'B', 113.02000000, 0, 'C10001', 0.00001110, '2018-12-21 00:35:00', '2018-12-21 00:35:00');
INSERT INTO `default`.`t_match_record`(`id`, `trade_no`, `order_no`, `pair_id`, `belonger`, `login_name`, `belonger_type`, `trade_date`, `trade_time`, `bs_flag`, `price`, `quantity`, `income_asset_code`, `income_fee`, `update_time`, `insert_time`) VALUES (141135299, 116615440, 115754793, 'ETH-USDT', '2357246974', '131****4807', '0', '2019-04-21', '2019-04-21 00:34:19', 'S', 113.02000000, 0, 'C10002', 0.00037297, '2018-12-21 00:35:00', '2018-12-21 00:35:00');
虚拟机配置如下
-Xms1024m -Xmx1024m -XX:+HeapDumpOnOutOfMemoryError
通道数 | 批量提交行数 | DataX速度(Rec/s) | DataX流量(MB/s) |
---|---|---|---|
1 | 8192 | 115379 | 13.09 |
2 | 2048 | 144224 | 16.37 |
2 | 4096 | 151815 | 17.23 |
2 | 8192 | 162506 | 18.44 |
4 | 2048 | 151815 | 17.23 |
4 | 4096 | 172208 | 19.54 |
4 | 8192 | 202420 | 22.97 |