专栏首页TASKCTL技术交流讨论详解ETL银行数据仓储抽取和加载流程概述
原创

详解ETL银行数据仓储抽取和加载流程概述

ETL和ELT

ETL是Extract、Transfrom、Load即抽取、转换、加载三个英文单词首字母的集合:

E:抽取,从源系统(Souce)获取数据;

T:转换,将源系统获取的数据进行处理加工,比如数据格式转化、数据精度转换、数据清洗、缺失数据补齐、异常数据排除等。

L:加载,将数据加载到目标数据库(Target)。

ELT也是同样三个单词的首字母组合,只是把T、L颠倒了下顺序。ETL强调的是先进性数据转换,然后再加载到目标。这个转换过程可以在原系统进行,也可以在中间环境进行进行。而ELT是把数据加载到数据仓库后再进行转化。ETL优势是充分利用各关联系统的性能,提高效率,但程序部署分散,运维成本较高。ELT是充分发挥数据仓库平台数据加工的高性能,并且可以保存原始数据方便后续复用。

随着数据仓库平台的性能越来越高,容量成本越来越低,目前更多的是采用ELT方式,充分利用数据仓库的高性能,提高加工效率。但在数据加载前也需要进行数据编码转化、异常数据等影响加载的处理,确保数据正确加载到数据仓库平台,但不做数据逻辑加工。

由于ETL出现较早,通常使用ETL来代表数据抽取加载和转换的统称。

ETL架构设计

数据ETL需要有ETL服务器集群执行数据ETL作业来进行数据抽取、转换和加载,所有ETL作业的脚本部署多台ETL服务器上,ETL作业可以根据服务器资源由调度工具分配到任意一台ETL服务器执行,常见架构如下图:

图片源自网络

ETL架构不仅仅是作为数据仓库的架构,但也是全行批量数据交换的统一架构和标准,虽然数据仓库是其中最大的一个数据加载的目标系统和数据源系统,但从架构规划角度来看,需要从全行、全集团的角度来设计批量数据交换,考虑多机构间交互场景,减少不必要的转换,提高效率和稳定性。

ETL服务器集群需要做到高可用,对于不能正常服务或负载过高的服务器,调度平台不会将作业分配到该服务器,所有的ETL作业脚本需要在每台服务器上部署,不能只部署一份代码到共享存储中。

在硬件资源上,服务器的IO和内存需要配置较高,同是由于批量数据容量较大,网络带宽需要千兆以上,同时需要考虑在传输高峰不能影响交易系统的网络通讯。

(1)文件方式和端到端方式

数据抽取和加载从是否经过中间落地成文件来区分主要有文件落地方式和端到端不落地(内存)的两种方式。文件方式指ETL服务器的抽取数据作业从源系统获取转焕为文件放到文件共享存储中,再由加载作业到目标系统中。端到端方式是ETL服务器从源系统获取数据后在内存中直接加载到目标系统。

从步骤中可以看出端到端方式在内存中直接加载,从单个作业速度对比来看速度应该更快,开发更简单,但端到端方式对内存资源要求较高,并行作业的最大值一般较文件低,同时文件具有以下好处:

  • 各数据库对文件导入和导出支持较好,一般都会提供专门的工具和高性能接口(如oracle sqlload导入文件和spool导出文件的性能较高)。因此大批量的数据抽取和加载作业的效率从整体看文件方式不一定比端到端的方式慢。
  • 文件方式耦合性比端到端低,如果发现数据加载出现问题,可以不用重新抽取数据,减少抽数对源系统的性能影响。
  • 文件通用性较好,如果涉及多网络或多机构之间的数据交换,A子公司的ETL服务器无法连接到B子公司的数据库。另外对于非结构化数据来源广泛,导出文件比较通用。

具体采用文件方式,端到端方式还是两者都采用的方式,各公司需要考虑服务器资源、现有工具及数据库驱动性能、成本、数据交换场景等多种情况来确定。

(2)文件方式方案需要考虑的要点

文件方式比较通用,多机构之间较多采用文件方式进行批量数据交互,但采用文件方式进行架构设计和开发时需要关注以下几点:

统一的文件交换规范和文件传输平台

文件存储规范制定文件目录、文件命名、用户权限、文件校验、文件清理等规范,如果涉及到跨机构批量文件传输,还需要统一有文件传输平台,提供统一的文件高效传输、加密、校验、限流、文件夹同步等功能。国内银行使用较多的文件传输平台有东方通、神州数码等公司产品。

文件目录规范中需要区分数据产生系统、数据使用系统、数据日期等,文件名中需要说明产生系统、文件内容描述、增量全量标志、数据日期等,规则举例如下:

数据源系统/数据日期/目标系统/源系统_文件内容描述_数据日期_增全量标志_频率标志.txt

举例:CBS/20190620/EDW/CBS_DEPOSIT-ACCOUT_20190620_ALL_D.txt

说明:【CBS、EDW为系统名】【ALL为全量标志】【D为每日】

文件格式:定长or 变长(分隔符)

定长:文件大,I/O资源消耗大,但能消除回车符、分隔符以及乱字符问题。

变长(分隔符):文件小,处理性能高,但需处理异常情况较多:

<1>分隔符:数据中存在分隔符,导致加载报错,可选用两个连续的不可见字符作为分隔符,基本可以解决该问题;

<2>换行符:导出文件时一般以换行符作为一行数据的结束,如果导出工具支持可以改成不可见字符作为换行符,不支持的话导出时对数据中的换行符进行替换;

<3>异常字符:如截取导致的半个UTF-8字符的编码或者HEX00等字符,一些数据库不支持会报错,一般这些字符发生在以前的主机上,异常情况下出现没处理,可以提前在源系统进行数据清洗或者导出时进行替换清洗。

因此一般在这些问题都有较好解决方法不影响抽取加载作业效率的情况下,都会采用变长(分隔符)的方式。

文件编码

文件导出需要统一编码,一般采用UAT-8编码,适应多国字符,但如果只有国内应用,也可以考虑GB18030或GBK编码,因为这两种编码中文字符比UTF-8编码节省1/3多的存储空间。性能较好。

(3)端到端方式需要考虑的要点

工具选择

目前市场上商用的ETL工具如DATASTAGE、INFORMATICA,开源的TASKCTL都支持端到端的处理,商用工具还提供中间的图形化的数据转换编码功能,但商用软件一般成本较高,对于一些数据库的高性能驱动还需要收费,开源工具功能较通用,但性能需要优化,同时需要有一定的技术能力来定制功能和软件升级。

驱动选择

选择数据库提供的高性能原生(native)驱动,不要使用ODBC驱动,原生的驱动性能数倍于ODBC等通用驱动,采集数据较多时能很大提高效率。

字符编码

需要将数据从源系统导出时转换为目标数据库的编码格式,在全公司的数据库编码和数据仓库内的字符编码需要进行统一规范,既可以减少转换成本,也可以减少生僻字、无法转换等异常情况。

抽取和加载开发设计

(1)开发需求分析

由于源系统和目标系统数据库不同,数据质量不高,需要注意之间不同数据库之间的字段类型、长度、精度的转换,为后续数据加工做好清洗:

  • 源系统字段没有明确精度和长度时,如Oracle中字段类型为number,没有定义精度,使用DATASTAGE时,当大于15位的number型数字接近最大值时会自动进位,所以在目标表设计字段精度时需要考虑这种异常情况。
  • 字符字段的全角和半角是否都统一为半角;
  • 字符字段左右空格是否都统一去掉;

在开发抽取加载作业时,需要配置以下主要信息,这些信息需要在数据调研和需求分析时提前确定:

图片源自网路

(2)全表字段自动加载

一般开发时会采用固定字段抽取加载的方式,但由于源系统的表结构会经常变化,比如增加字段,字段长度变长,如果每次变化都要随之修改,许多时间会耗费在这些小修小改中,因此在进行抽取和加载时,需要根据源系统表结构自动生成对应的抽取脚本、目标表结构、加载脚本,自动适应源系统的表结构变化。

(3)源系统数据表变化通知和监控

虽然抽取和加载作业可以适应源系统表结构变化,但字段长度、精度变化、字段删除、代码值变化和字段含义变化会对后续数据加工作业带来影响。因此源系统需要将这些变更提前告知数据仓库或目标系统,否则就会产生生产问题,但源系统开发同事往往会产生遗漏,因此在公司数据治理制度中明确开发分工、数据问题责任界定。如在每次版本需求分析时需要考虑数据变化对数据仓库及其它系统的影响,并在测试阶段提前进行影响测试。在上线前也需要检查下系统表结构变化的DDL文件,分析影响并通知影响系统。

由于源系统字段的变化会影响到后续的数据流向的所有系统,因此在数据仓库的模型设计时需要提前设计冗余,减少字段长度、精度变化的影响,比如源系统字段长度是128,在数据仓库主数据模型中可以设计为500。减少对后续数据使用系统的影响。具体影响分析工具会在后续的 “元数据管理” 中详细说明。

图片源自网络

由于只靠源系统的通知并不完全可靠,还需要做好源数据表结构变化和代码值变化的监控,每天对抽取的表结构和上一日进行比对,代码值与代码值映射表中比对,对发现未告知的情况进行邮件告警,并评估影响、及时处理,以免问题积累,需耗费大量精力修复。

(4)自动化脚本生成及执行

对于抽取加载作业需要做成标准化程序,即一个程序处理所有的抽取加载作业,根据不同的配置信息来完成所有作业,在调度工具中的所有抽取加载作业指向的是同一个程序,由这个程序根据传入的作业名和日期自动化生成脚本并执行。这样对于开发只是进行配置信息的确认和导入即可,不需要涉及代码开发。

许多ETL工具需要开发脚本再执行,特别一些商用的软件如DATASTAGE还提供了可视化的开发界面,但这样开发也比较耗时,对于使用的ETL工具如DATASTAGE、SQOOP也支持编程和脚本调用作业,所以可以用统一的程序来调用ETL工具进行抽取加载数据。提高开发效率,以下是供参考的流程。

(5)监控及异常处理

数据抽取和加载作业是数据仓库每天第一批作业,如果发生问题往往对整个批处理时效产生较大影响,甚至影响监管报送时效。因此需要对作业进行监控,及时预警。

因此在开发抽取和加载作业时,需要注意:

  • 统一返回码并提供错误信息;
  • 抽取和加载作业必须支持重跑,也就是在作业任何阶段发生异常时可直接重做,需要设计时考虑异常中断下,如何恢复初始数据;
  • 调度平台需要根据抽取加载作业返回码判断作业是否成功,是否可以继续,对于异常情况需要及时与行内监控预警系统对接,按预警级别发送作业错误告警信息;
  • 调度平台需要获取到作业的日志,对于一些ETL工具,这部分需要进行集成,以便减少后台日志查看的工作量,直接在调度平台进行问题定位。

(6)开发分工

ETL作为全行或全公司的批量数据交互基础架构,需要在全行或全公司进行规范和开发流程培训。ETL服务器及工具、抽取加载的标准程序由统一团队来维护,需要进行权限分配并提供培训及技术支持。那对于抽取加载作业具体由源系统还是目标系统来开发不同的公司有不同的做法,

  • 由源系统开发,如果源系统是将数据加工结果给到目标系统,由于比较熟悉数据,一般由源系统加工完后直接开发抽取加载作业将数据提供给目标系统;
  • 由目标系统开发,目标系统比较熟悉数据用途及优先级,如果全表抽取的话数据加工主要在目标系统,由目标系统来开发抽取加载作业,源系统只需要做好数据权限分配即可。
  • 由数据仓库团队统一开发,一般公司较小时可以由统一团队来开发,但随着开发项目增多,会出现瓶颈,影响效率,需要由各数据使用方来开发抽取加载作业。

ETL工具

这里我为大家推荐的是调度工具是: taskctl 6.0

TASKCTL作为敏捷批量调度的开拓者,产品设计从一开始就专门为整洁的体验而设计,并提供丰富、直观的用户界面,以简化常见的作业调度执行编排流程。

图片源自网络

TASKCTL产品功能架构图

图片源自网络

强大的核心自动化调度能力

TASKCTL提供了强大的核心自动化调度能力。

● 作业关系调度控制:对作业(流)实现作业(流)的依赖关系调度、作业并行调度、作业间互斥调度。

● 容错策略控制:对作业(流)实现错误自动重做、错误自动忽略等控制

● 计划排程:支持自然日历排程、逻辑日历排程等设置。

● 流程启动触发:提供事件触发、文件触发、定时频度触发、自定义时间触发、自定义条件触发等控制。

 其他:支持返回值控制、跳转控制、条件分支、参数控制、变量自动设置、作业输入输出传递、时间窗口控制、并发度控制、物理资源阀值控制、逻辑资源阀值控制、优先级控制、循环控制、断点续做、负载均衡调度。

丰富的应用及用户管理

TASKCTL提供了Windows图形客户端(C/S)、类Unix或Linux系统的字符客户端等多种应用渠道界面,可满足不同程度的作业批量调度开发人员、运维人员及监控管理人员的使用,并提供了丰富的应用管理功能。

● 人工干预功能(手工保障):支持人工执行任意作业、人工执行指定分支、作业重做、正执行作业人工中断、断点设置、设置作业无效、强制通过、执行条件人工忽略、并行度实时人工调整、资源阀值人工调整、优先级实时人工调整、控制变量人工修改、追数调度等人工干预功能。

 统计分析:提供排程分布图、系统运行时间窗口分布图、作业运行时序图、作业耗时排序图、作业运行关联分析、作业出错率统计分析图等展示。

● 系统平台管理:提供节点管理、用户及权限管理、迁移部署、信息备份、平台日志管理、版本管理等平台管理功能。

● 作业(流)定义设计功能:提供作业流程嵌套设计、信息变量化设计、设计信息自动检测、单作业对话框方式定义、流程图设计能力、单作业图形拖拽设计、多作业批量化平面文件方式设计、批量设计在线化、批量设计与图形化设计实时互动等作业(流)设计功能。

● 全方位监控管理:提供流程图实时动态监控、多维度的统计列表监控、短信实时监控、邮件方式非实时通知、启动文件到达监控、调度体系拓扑图监控、资源监控等功能。

● 信息查询:提供历史调度信息查询、作业日志查询、作业信息查询、变量信息查询、人工操作记录查询功能。

敏捷性设计

TASKCTL作为敏捷调度的开拓者,从产品设计之初就立足于简洁使用,敏捷调度。

● 架构的灵活性:提供调度服务+执行代理部署结构、分布独立调度、统一运维监控应用架构。

● 界面友好性:提供分钟级的软件安装和部署,流程图无交叉的友好展示、流程拖拽设计、秒级快速全局搜索和定位、清爽简洁操作界面。

● 产品开放性:提供跨平台、跨系统、广泛的作业类型支持,提供作业类型统一扩展功能,并提供调度核心各种应用控制接口和核心各种数据的开放性。

● 产品高性能:超低的调度服务节点资源消耗和调度代理节点资源消耗大幅节省了宿主机和代理的资源运行。高效的调度效率(吞吐量)40个/秒 ,可大幅提升整体调度质量,并可轻松支撑10万+级作业调度应用。

● 低依赖:不依赖任何第三方中间件技术,全内存数据访问大大降低了软硬件的依赖性。

● 高可靠:支持调度服务节点、调度执行代理节点的高可靠。

● 信息安全:提供加密的网络通讯安全、强密码控制策略、和人工操作记录审计功能。

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 数据仓库之ETL实战

    ETL,Extraction-Transformation-Loading的缩写,中文名称为数据抽取、转换和加载。 一般随着业务的发展扩张,产线也越来越多,产生...

    taskctl官方频道
  • 什么是ETL?算了,你可能不懂

    ETL是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。

    taskctl官方频道
  • ETL基础知识有哪些?3分钟让你轻松搞定

    随着企业的发展,各业务线、产品线、部门都会承建各种信息化系统方便开展自己的业务。随着信息化建设的不断深入,由于业务系统之间各自为政、相互独立造成的数据孤岛”现象...

    taskctl官方频道
  • 大数据框架hadoop服务角色介绍

    翻了一下最近一段时间写的分享,DKHadoop发行版本下载、安装、运行环境部署等相关内容几乎都已经写了一遍了。虽然有的地方可能写的不是很详细,个人理解水平有限还...

    用户3391135
  • Hadoop体系结构中的服务解决介绍

    翻了一下最近一段时间写的分享,DKHadoop发行版本下载、安装、运行环境部署等相关内容几乎都已经写了一遍了。虽然有的地方可能写的不是很详细,个人理解水平有限还...

    IT小白龙
  • 模型选择评估方法

    Echo_fy
  • 模型选择评估方法

    Echo_fy
  • react-native 集成极光推送jpush-react-native时的小问题

    mcq
  • 让android支持https访问银联后台,测试成功

    java很强大,在java上调用http接口以及解析json之类的应该很容易,有很多现成的接口和第三方库如httpclinet,okhttp,volley,re...

    特立独行的猫a
  • 基于边缘计算的大规模传感器高频采集系统研究

    【摘要】基于边缘计算研究传感器高频次采集数据的传输、存储和处理技术架构,提出了传感器高频采集设备的软硬件模块组成,并形成通用数据分析处理软件框架,以长时间综合分...

    边缘计算

扫码关注云+社区

领取腾讯云代金券