首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

ByConity 技术详解:内置 ELT 能力实现原理和使用

谈到数据仓库, 一定离不开使用 Extract-Transform-Load (ETL)或 Extract-Load-Transform (ELT),即将来源不同、格式各异的数据提取到数据仓库中,并进行处理加工。传统的数据转换过程一般采用 Extract-Transform-Load (ETL)来将业务数据转换为适合数仓的数据模型,然而,这依赖于独立于数仓外的 ETL 系统,因而维护成本较高。

ByConity 作为云原生数据仓库,从 0.2.0 版本开始逐步支持 Extract-Load-Transform (ELT),使用户免于维护多套异构数据系统。本文将介绍 ByConity 在 ELT 方面的能力规划,实现原理和使用方式等。

ETL 场景和方案

ELT 与 ETL 的区别

  • ETL:是用来描述将数据从来源端经过抽取、转置、加载至目的端(数据仓库)的过程。Transform 通常描述在数据仓库中的前置数据加工过程。
  • ELT 专注于将最小处理的数据加载到数据仓库中,而把大部分的转换操作留给分析阶段。相比起前者(ETL),它不需要过多的数据建模,而给分析者提供更灵活的选项。ELT 已经成为当今大数据的处理常态,它对数据仓库也提出了很多新的要求。

资源重复的挑战

典型的数据链路如下:我们将行为数据、日志、点击流等通过 MQ/ Kafka/ Flink 将其接入存储系统当中,存储系统又可分为域内的 HDFS 和云上的 OSS& S3 这种远程储存系统,然后进行一系列的数仓的 ETL 操作,提供给 OLAP 系统完成分析查询。

但有些业务需要从上述的存储中做一个分支,因此会在数据分析的某一阶段,从整体链路中将数据导出,做一些不同于主链路的 ETL 操作,会出现两份数据存储。其次在这过程中也会出现两套不同的 ETL 逻辑。

当数据量变大,计算冗余以及存储冗余所带来的成本压力也会愈发变大,同时,存储空间的膨胀也会让弹性扩容变得不便利。

业界解决思路

在业界中,为了解决以上问题,有以下几类流派:

  • 数据预计算流派:如 Kylin 等。如果 Hadoop 系统中出报表较慢或聚合能力较差,可以去做一个数据的预计算,提前将配的指标的 cube 或一些视图算好。实际 SQL 查询时,可以直接用里面的 cube 或视图做替换,之后直接返回。
  • 流批一体派:如 Flink、Risingwave。在数据流进时,针对一些需要出报表或者需要做大屏的数据直接内存中做聚合。聚合完成后,将结果写入 HBase 或 MySQL 中再去取数据,将数据取出后作展示。Flink 还会去直接暴露中间状态的接口,即 queryable state,让用户更好的使用状态数据。但是最后还会与批计算的结果完成对数,如果不一致,需要进行回查操作,整个过程考验运维/开发同学的功力。
  • 湖仓一体 &HxxP:将数据湖与数据仓库结合起来。

ELT in ByConity

整体执行流程

ELT 任务对系统的要求:

  1. 整体易扩展:导入和转换通常需要大量的资源,系统需要通过水平扩展的方式来满足数据量的快速增长。
  2. 可靠性和容错能力:大量的 job 能有序调度;出现 task 偶然失败(OOM)、container 失败时,能够拉起重试;能处理一定的数据倾斜
  3. 效率 &性能:有效利用多核多机并发能力;数据快速导入;内存使用有效(内存管理);CPU 优化(向量化、codegen)
  4. 生态 &可观测性:可对接多种工具;任务状态感知;任务进度感知;失败日志查询;有一定可视化能力

ByConity 针对 ELT 任务的要求,以及当前场景遇到的困难,新增了以下特性和优化改进。

分阶段执行(Stage-level Scheduling)

原理解析

当前 ClickHouse 的 SQL 执行过程如下:

  • 第一阶段,Coordinator 收到分布式表查询后将请求转换为对 local 表查询发送给每个 shard 节点; 第二阶段,Coordinator 收到各个节点的结果后汇聚起来处理后返回给客户端;

ClickHouse 将 Join 操作中的右表转换为子查询,带来如下几个问题都很难以解决:

  • 复杂的 query 有多个子查询,转换复杂度高; Join 表较大时,容易造成 worker 节点的 OOM; 聚合阶段在 Cooridnator,压力大,容易成为性能瓶颈;

不同于 ClickHouse,我们在 ByConity 中实现了对复杂查询的执行优化。通过对执行计划的切分,将之前的两阶段执行模型转换为分阶段执行。在逻辑计划阶段,根据算子类型插入 exchange 算子。执行阶段根据 exchange 算子将整个执行计划进行 DAG 切分,并且分 stage 进行调度。stage 之间的 exchange 算子负责完成数据传输和交换。

关键节点:

  1. exchange 节点插入
  2. 切分 stage
  3. stage scheduler
  4. segment executer
  5. exchange manager

这里重点来讲一下 exchange 的视线。上图可以看到,最顶层的是 query plan。下面转换成物理计划的时候,我们会根据不同的数据分布的要求转换成不同的算子。source 层是接收数据的节点,基本都是统一的,叫做 ExchangeSource。Sink 则有不同的实现,BroadcastSink、Local、PartitionSink 等,他们是作为 map task 的一部分去运行的。如果是跨节点的数据操作,我们在底层使用统一的 brpc 流式数据传输,如果是本地,则使用内存队列来实现。针对不同的点,我们进行了非常细致的优化:

  • 数据传输层
  • 进程内通过内存队列,无序列化,zero copy 进程间使用 brpc stream rpc,保序、连接复用、状态码传输、压缩等
  • 算子层 批量发送 线程复用,减少线程数量

带来的收益

因为 ByConity 彻底采用了多阶段的查询执行方式,整体有很大的收益:

  • Cooridnator 更稳定、更高效 聚合等算子拆分到 worker 节点执行 Cooridnator 节点只需要聚合最终结果
  • Worker OOM 减少 进行了 stage 切分,每个 stage 的计算相对简单 增加了 exchange 算子,减少内存压力
  • 网络连接更加稳定、高效 exchange 算子有效传输 复用连接池

自适应的调度器(Adaptive Scheduler)

Adaptive Scheduler 属于我们在稳定性方面所做的特性。在 OLAP 场景中可能会发现部分数据不全或数据查询超时等,原因是每个 worker 是所有的 query 共用的,这样一旦有一个 worker 较慢就会导致整个 query 的执行受到影响。

计算节点共用存在的问题:

  • Scan 所在的节点负载和不同查询所需的扫描数据量相关,做不到完全平均;
  • 各 Plan Segment 所需资源差异大;

这就导致 worker 节点之间的负载严重不均衡。负载较重的 worker 节点就会影响 query 整体的进程。因此我们做了以下的优化方案:

  • 建立 Worker 健康度机制。Server 端建立 Worker 健康度管理类,可以快速获取 Worker Group 的健康度信息,包括 CPU、内存、运行 Query 数量等信息。
  • 自适应调度:每个 SQL 根据 Worker 健康度动态的进行选择以及计算节点并发度控制。

查询的队列机制(Query Queue)

我们的集群也会出现满载情况,即所有的 worker 都是不健康的或者满载/超载的,就会用查询队列来进行优化。

我们直接在 server 端做了一个 manager。每次查询的时候 manager 会去 check 集群的资源,并且持有一个锁。如果资源不够用,则等待资源释放后去唤醒这个锁。这就避免了 Server 端不限制的下发计算任务,导致 worker 节点超载,然后崩掉的情况。

当前实现相对简单。server 是多实例,每个 server 实例中都有 queue,所持有的是一个局部视角,缺乏全局的资源视角。除此之外,每个 queue 中的查询状态没有持久化,只是简单的缓存在内存中。

后续,我们会增加 server 之间的协调,在一个全局的视角上对查询并发做限制。也会对 server 实例中 query 做持久化,增加一些 failover 的场景支持。

异步执行(Async Execution)

ELT 任务的一个典型特征就是:相对于即时分析,他们的运行时间会相对较长。一般 ELT 任务执行时长为分钟级,甚至到达小时级。

目前 ClickHouse 的客户端查询都采用阻塞的方式进行返回。这样就造成了客户端长期处于等待的情况,而在这个等待过程中还需要保持和服务端的连接。在不稳定的网络情况下,客户端和服务端的连接会断开,从而导致服务端的任务失败。

为了减少这种不必要的失败,以及减少客户端为了维持连接的增加的复杂度。我们开发了异步执行的功能,它的实现如下:

  1. 用户指定异步执行。用户可以通过 settings enable_async_query = 1 的方式进行 per query 的指定。也可以通过 set enable_async_query = 1 的方式进行 session 级别的指定。
  2. 如果是异步 query,则将其放到后台线程池中运行
  3. 静默 io。当异步 query 执行时,则需要切断它和客户端的交互逻辑,比如输出日志等。

针对 query 的初始化还是在 session 的同步线程中进行。一旦完成初始化,则将 query 状态写入到 metastore,并向客户端返回 async query id。客户端可以用这个 id 查询 query 的状态。async query id 返回后,则表示完成此次查询的交互。这种模式下,如果语句是 select,那么后续结果则无法回传给客户端。这种情况下我们推荐用户使用 async query + select...into outfile 的组合来满足需求。

未来规划

针对 ELT 混合负载,ByConity 0.2.0 版本目前只是牛刀小试。后续的版本中我们会持续优化查询相关的能力,ELT 为核心的规划如下:

故障恢复能力

  • 算子 Spill Sort、Agg、Join 算子 Spill; Exchange Spill 能力;
  • Recoverability 容错恢复 算子执行恢复:ELT 任务运行时长较长时,中间 Task 的偶发失败会导致整个 Query 失败,支持 Task 级别重试可以极大地降低环境原因导致的偶发失败; Stage 重试:当节点失败时,可以进行 Stage 级别的重试; 保存队列作业状态的能力;
  • Remote Shuffle Service:当前业界开源的 shuffle service 通常为 Spark 定制,没有通用的客户端,比如 c++客户端。后续我们会补充这部分能力。

资源

  • 计算资源可指定:用户可指定 query 需要的计算资源;
  • 计算资源预估/预占:可动态预估 query 需要的计算资源,并通过预占的方式进行调配;
  • 动态申请资源:当前 worker 均为常驻进程/节点。动态申请资源可以提高利用率;
  • 更细粒度的资源隔离:通过 worker group 或者进程级别的隔离,减少各 query 之间相互影响。
  • 发表于:
  • 本文为 InfoQ 中文站特供稿件
  • 首发地址https://www.infoq.cn/article/6bWZDrEHV2DzNZef8qko
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券