前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >基于hadoop生态圈的数据仓库实践 —— OLAP与数据可视化(六)

基于hadoop生态圈的数据仓库实践 —— OLAP与数据可视化(六)

作者头像
用户1148526
发布2019-05-25 19:41:06
6140
发布2019-05-25 19:41:06
举报
文章被收录于专栏:Hadoop数据仓库Hadoop数据仓库

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://cloud.tencent.com/developer/article/1433144

六、Hue数据可视化实例

代码语言:txt
复制
    本节先用Impala、DB查询示例说明Hue的数据查询和可视化功能,然后交互式地建立一个定期执行销售订单示例ETL任务的工作流,说明在Hue里是如何操作Oozie工作流引擎的。

1. Impala查询

代码语言:txt
复制
    在Impala OLAP实例一节中执行了一些查询,现在在Hue里执行查询,直观看一下结果的图形化表示效果。

(1)登录Hue,点击

图标进入“我的文档”页面。

(2)点击

创建一个名为“销售订单”的新项目。

(3)点击

进入Impala查询编辑页面,创建一个新的Impala文档。

(4)在Impala查询编辑页面,选择olap库,然后在编辑窗口输入下面的查询语句。

代码语言:javascript
复制
-- 按产品分类查询销售量和销售额
select t2.product_category pro_category,    
       sum(order_quantity) sum_quantity,  
       sum(order_amount) sum_amount   
  from sales_order_fact t1, product_dim t2  
 where t1.product_sk = t2.product_sk  
 group by pro_category  
 order by pro_category; 

-- 按产品查询销售量和销售额
select t2.product_name pro_name,    
       sum(order_quantity) sum_quantity,  
       sum(order_amount) sum_amount   
  from sales_order_fact t1, product_dim t2  
 where t1.product_sk = t2.product_sk  
 group by pro_name  
 order by pro_name;
代码语言:txt
复制
    点击“执行”按钮,结果显示按产品分类的销售统计,如下图所示。接着点击“下一页”按钮,结果会显示按产品的销售统计。

(5)点击 “全屏查看结果”按钮,会全屏显示查询结果。

代码语言:txt
复制
    产品统计结果如下图所示。
代码语言:txt
复制
    产品统计柱状图如下图所示。
代码语言:txt
复制
    从图中可以看到,按销售额从大到小排序的产品依次为Hard Disk Drive、Floppy Drive、Flat Panel、Keyboard和LCD Panel。

(6)回到查询编辑页,点击“另存为...”按钮,保存成名为“按产品统计”的查询。

(7)点击“新查询”按钮,按同样的方法再建立一个“按地区统计”的查询。SQL语句如下:

代码语言:javascript
复制
-- 按州查询销售量和销售额
select t3.state state,  
       count(distinct t2.customer_sk) sum_customer_num,  
       sum(order_amount) sum_order_amount   
  from sales_order_fact t1  
 inner join customer_dim t2 on t1.customer_sk = t2.customer_sk  
 inner join customer_zip_code_dim t3 on t1.customer_zip_code_sk = t3.zip_code_sk  
 group by state
 order by state;
 
-- 按城市查询销售量和销售额
select t3.city city,  
       count(distinct t2.customer_sk) sum_customer_num,  
       sum(order_amount) sum_order_amount   
  from sales_order_fact t1  
 inner join customer_dim t2 on t1.customer_sk = t2.customer_sk  
 inner join customer_zip_code_dim t3 on t1.customer_zip_code_sk = t3.zip_code_sk  
 group by city  
 order by city;
代码语言:txt
复制
    城市统计饼图如下图所示。
代码语言:txt
复制
    从图中可以看到,mechanicsburg市的销售占整个销售额的一半。

(8)再建立一个“按年月统计”的查询,这次使用动态表单功能,运行时输入年份。SQL语句如下。

代码语言:javascript
复制
-- 按年月查询销售量和销售额
select t4.year*100 + t4.month ym,  
       sum(order_quantity) sum_quantity,  
       sum(order_amount) sum_amount   
  from sales_order_fact t1    
 inner join order_date_dim t4 on t1.order_date_sk = t4.date_sk 
 where (t4.year*100 + t4.month) between $ym1 and $ym2 
 group by ym
 order by ym;
代码语言:txt
复制
    注意$ym1和$ym2是动态参数,执行此查询,会出现输入框要求输入参数,如下图所示。
代码语言:txt
复制
    查询2016一年的销售情况,ym1输入201601,ym2输入201612,然后点击“执行查询”,结果线形图如下图所示。
代码语言:txt
复制
    此结果按查询语句中的order by子句排序。
代码语言:txt
复制
    至此,我们定义了三个Impala查询,进入“我的文档”页面可以看到default项目中有三个文档,而“销售订单”项目中没有文档,如下图所示。

(9)把这三个文档移动到“销售订单”项目中。

代码语言:txt
复制
    点击右面列表中的“default”按钮,会弹出“移动到某个项目”页面,点击“销售订单”,如下图所示。
代码语言:txt
复制
    将三个查询文档都如此操作后,在“销售订单”项目中会出现此三个文档,如下图所示。
代码语言:txt
复制
    以上用销售订单的例子演示了一下Hue中的Impala查询及其图形化表示。严格地说,无论是Hue还是Zeppelin,在数据可视化上与传统的BI产品相比还很初级,它们只是提供了几种常见的图表,还缺少基本的上卷、下钻、切块、切片、百分比等功能,如果只想用Hadoop生态圈里的数据可视化工具,也只能期待其逐步完善吧。

(10)最后提供一个Hue文档中通过经纬度进行地图定位的示例,其截图如下所示。

2. DB查询

代码语言:txt
复制
    缺省情况下Hue没有启用DB查询,如果点击“Query Editors” -> “DB 查询”,会提示“当前没有已配置的数据库。”,如下图所示。
代码语言:txt
复制
    按如下方法配置DB查询。

(1)进入CDH Manager的“Hue” -> “配置”页面,在“类别中选择“服务范围” -> “高级”,然后编辑“hue_safety_valve.ini 的 Hue 服务高级配置代码段(安全阀)”配置项,填写类似如下内容:

代码语言:javascript
复制
[librdbms]
  [[databases]]
    [[[mysql]]]
      # Name to show in the UI.
      nice_name="MySQL DB"
      name=hive
      engine=mysql
      host=172.16.1.102
      port=3306
      user=root
      password=mypassword
代码语言:txt
复制
    这里配置的是一个MySQL数据库,如下图所示。

(2)点击“保存更改”按钮,然后点击“操作” -> “重启”,重启Hue服务。

代码语言:txt
复制
    此时再次在Hue里点击“Query Editors” -> “DB 查询”,则会出现MySQL中hive库表,此库存放的是Hive元数据。此时就可以输入SQL进行查询了,如下图所示。

3. 建立定期执行销售订单示例的ETL工作流

代码语言:txt
复制
    下面说明建立工作流的详细步骤。

(1)登录Hue的Web主页,点击“Workflows” -> “编辑器” -> “Workflow”,打开“Workflow 编辑器”页面,如下图所示。

(2)点击“Create”按钮,新建一个工作流,页面如下图所示。

代码语言:txt
复制
    从图中看到,工作流预定义了16种操作,而且Start、End、Kill节点已经存在,不需要(也不能)自己定义。

(3)点击

图标,打开工作区页面,如下图所示。

(4)点击

图标,显示HDFS上的工作区目录。

(5)执行下面的命令,将相关依赖文件拷贝至工作区目录。

代码语言:javascript
复制
hdfs dfs -put -f /root/mysql-connector-java-5.1.38/mysql-connector-java-5.1.38-bin.jar /user/hue/oozie/workspaces/hue-oozie-1472779112.59
hdfs dfs -put -f /etc/hive/conf.cloudera.hive/hive-site.xml /user/hue/oozie/workspaces/hue-oozie-1472779112.59
hdfs dfs -put -f /root/regular_etl.sql /user/hue/oozie/workspaces/hue-oozie-1472779112.59
hdfs dfs -put -f /root/month_sum.sql /user/hue/oozie/workspaces/hue-oozie-1472779112.59

(6)回到“Workflow 编辑器”页面,拖拽添加三个“Sqoop 1”操作,如下图所示。

代码语言:txt
复制
    可以看到,因为三个Sqoop并行处理,所以工作流中自动添加了fork节点和join节点。

(7)编辑三个“Sqoop 1”操作。

代码语言:txt
复制
    第一个“Sqoop 1”操作改名为“sqoop-customer”
代码语言:txt
复制
    a. Sqoop 命令填写如下命令,用import全量装载客户表:
代码语言:javascript
复制
import --connect jdbc:mysql://cdh1:3306/source?useSSL=false --username root --password mypassword --table customer --hive-import --hive-table rds.customer --hive-overwrite
代码语言:txt
复制
    b. 点击“文件”,在“选择文件”页面点击“工作区”,选择hive-site.xml文件。
代码语言:txt
复制
    c. 再次点击“文件”,在“选择文件”页面点击“工作区”,选择mysql-connector-java-5.1.38-bin.jar文件。
代码语言:txt
复制
    第二个“Sqoop 1”操作改名为“sqoop-product”
代码语言:txt
复制
    a. Sqoop 命令填写如下命令,用import全量装载产品表:
代码语言:javascript
复制
import --connect jdbc:mysql://cdh1:3306/source?useSSL=false --username root --password mypassword --table product --hive-import --hive-table rds.product --hive-overwrite
代码语言:txt
复制
    b. 点击“文件”,在“选择文件”页面点击“工作区”,选择hive-site.xml文件。
代码语言:txt
复制
    c. 再次点击“文件”,在“选择文件”页面点击“工作区”,选择mysql-connector-java-5.1.38-bin.jar文件。
代码语言:txt
复制
    第三个“Sqoop 1”操作改名为“sqoop-sales\_order”
代码语言:txt
复制
    a. Sqoop 命令填写如下命令,用job增量装载销售订单表:
代码语言:javascript
复制
job --exec myjob_incremental_import --meta-connect jdbc:hsqldb:hsql://cdh2:16000/sqoop
代码语言:txt
复制
    b. 点击“文件”,在“选择文件”页面点击“工作区”,选择hive-site.xml文件。
代码语言:txt
复制
    c. 再次点击“文件”,在“选择文件”页面点击“工作区”,选择mysql-connector-java-5.1.38-bin.jar文件。

(8)修改工作流的名称为“regular_etl”,添加工作流的描述为“销售订单定期ETL”,fork节点的名称为“fork-node”,join节点的名称为“join-node”。现在的工作流如下图所示。

(9)在“join-node”节点下,拖拽添加一个“Hive 脚本”操作,“脚本”选择工作区目录下的regular_etl.sql文件,“Hive XML”选择工作区目录下的hive-site.xml文件。修改操作名称为“hive-every-day”。此操作每天执行ETL主流程。

(10)在“hive-every-day”操作下,拖拽添加一个“Hive 脚本”操作,“脚本”选择工作区目录下的month_sum.sql文件,“Hive XML”选择工作区目录下的hive-site.xml文件。修改操作名称为“hive-every-month”。此操作每个月执行一次,生成上月汇总数据快照。现在的工作流如下图所示(“join-node”及其以下部分)。

(11)这步要使用一个小技巧。hive-every-month是每个月执行一次,我们是用天做判断,比如每月1日执行此操作,需要一个decision节点完成date eq 1的判断。在Hue的工作流编辑里,decision节点是由fork节点转换来的,而fork节点是碰到并发操作时自动添加的。因此需要添加一个和“hive-every-month”操作并发的操作来自动添加fork节点。这里选择

“停止”操作。现在的工作流如下图所示(“hive-every-day”及其以下部分)。

(12)点击“转换为决策”,条件是如果${date eq 1}转至“hive-every-month”,否则转至“End”。因为不是1号时会转至缺省的“End”节点,所以此时已经不再需要刚才添加的“停止”操作,将其删除。现在的工作流如下图所示(“hive-every-day”及其以下部分)。

代码语言:txt
复制
    至此我们的regular\_etl工作流已经定义完成,点击

图标保存,在非编辑模式下,完整的工作流如下图所示。

(13)点击

“设置”,在弹出的“Workflow 设置”页面里点击“添加参数”链接,参数名为“date”,值设置为1,如下图所示。

(14)关闭“Workflow 设置”页面,点击

“提交”,弹出“提交 regular_etl?”页面,参数date值为1,如下图所示。

(15)点击“提交”按钮,工作流执行,执行成功结果如下图所示。

代码语言:txt
复制
    前面的步骤定义了Workflow工作流,要让它定时执行还要定义Coordinator工作流。

(16)点击“Workflows” -> “编辑器” -> “Workflow”,打开“Coordinator 编辑器”页面,如下图所示。

(17)点击“Create”按钮,新建一个工作流,页面如下图所示。

(18)点击“选择 Workflow”链接,在弹出的页面中选择“regular_etl”,如下图所示。

(19)“频率”配置不变,保持缺省的每天一次。

(20)点击“添加参数”链接,将${coord:formatTime(coord:actualTime(), 'd')}作为regular_etl里变量date的值,传递给Workflow。

(21)修改Coordinator工作流的名称为“regular_etl-coord”,点击

保存。

代码语言:txt
复制
    至此我们的Coordinator工作流已经定义完成,现在的工作流在非编辑模式下如下图所示。

(22)点击 “提交”,等待Coordinator工作流执行,执行成功结果如下图所示。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016年08月31日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云数据库 MySQL
腾讯云数据库 MySQL(TencentDB for MySQL)为用户提供安全可靠,性能卓越、易于维护的企业级云数据库服务。其具备6大企业级特性,包括企业级定制内核、企业级高可用、企业级高可靠、企业级安全、企业级扩展以及企业级智能运维。通过使用腾讯云数据库 MySQL,可实现分钟级别的数据库部署、弹性扩展以及全自动化的运维管理,不仅经济实惠,而且稳定可靠,易于运维。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档