前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >如何在CDH中部署及使用Kylin

如何在CDH中部署及使用Kylin

作者头像
Fayson
发布2018-07-12 14:48:27
2.2K0
发布2018-07-12 14:48:27
举报
文章被收录于专栏:Hadoop实操

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。

Fayson的github:https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1.文档编写目的


Apache Kylin是一个开源的分布式分析引擎,提供Hadoop/Spark之上的SQL查询接口及多维分析(OLAP)能力以支持超大规模数据,最初由eBay开发并贡献至开源社区。它能在亚秒内查询巨大的Hive表。

具体功能如下:

1.可扩展超快OLAP引擎:

- Kylin是为减少在Hadoop/Spark上百亿规模数据查询延迟而设计

2.Hadoop ANSI SQL 接口:

- Kylin为Hadoop提供标准SQL支持大部分查询功能

3.交互式查询能力:

- 通过Kylin,用户可以与Hadoop数据进行亚秒级交互,在同样的数据集上提供比Hive更好的性能

4.多维立方体(MOLAP Cube):

- 用户能够在Kylin里为百亿以上数据集定义数据模型并构建立方体

5.与BI工具无缝整合:

- Kylin提供与BI工具的整合能力,如Tableau,PowerBI/Excel,MSTR,QlikSense,Hue和SuperSet

6.其他特性:

- Job管理与监控

- 压缩与编码

- 增量更新

- 利用HBase Coprocessor

- 基于HyperLogLog的Dinstinc Count近似算法

- 友好的web界面以管理,监控和使用立方体

- 项目及表级别的访问控制安全

- 支持LDAP、SSO

以上内容来自Kylin的Apache社区官网,具体参考:http://kylin.apache.org/cn/,本文主要描述如何在CDH集群中部署及使用Kylin。

  • 内容概述

1.下载Kylin

2.部署Kylin

3.Demo1

4.Demo2

测试环境

1.RedHat7.4

2.CM/CDH5.13.3

3.Apache Kylin2.1.0

4.集群未启用Kerberos

  • 前置条件

1.CDH集群正常运行

2.Hive,HBase服务运行正常

3.安装Kylin服务的节点已经部署Hive Gateway

2.下载Kylin


社区版kylin下载地址:https://archive.apache.org/dist/kylin/ ,本次测试使用apache-kylin-2.1.0

3.部署Kylin


这里测试只部署了一个节点,实际生产可以部署多个节点,kylin是无状态的,前端做负载均衡。

1.上传kylin包至服务器

2.解压至/usr/local目录,并建软链接

代码语言:javascript
复制
[root@hadoop3 ~]# tar -zxvf apache-kylin-2.1.0-bin-cdh57.tar.gz -C /usr/local/
[root@hadoop3 ~]# cd /usr/local/
[root@hadoop3 local]# ln -s apache-kylin-2.1.0-bin-cdh57/ kylin

(可左右滑动)

3.Kylin环境配置

主要配置kylin的home目录及java环境变量,配置如下:

代码语言:javascript
复制
[root@hadoop3 kylin]# vim ~/.bashrc 
export JAVA_HOME=/usr/java/jdk1.7.0_67-cloudera
export KYLIN_HOME=/usr/local/kylin
export PATH=$JAVA_HOME/bin:$PATH
[root@hadoop3 kylin]# source ~/.bashrc 

(可左右滑动)

4.执行bin/check-env.sh检查kylin运行环境

5.启动kylin服务,执行bin/kylin.sh start命令

6.访问kylin的web UI,这里的地址是http://192.168.0.198:7070/kylin,默认账号密码为:ADMIN/KYLIN

4.Demo1:Kylin自带


1.Kylin本身自带了一个测试例子,创建流程如下:

执行sample.sh脚本,这个主要是创建kylin的project、model、cube以及相关的hive表等。

查看Hive default库中的表,多了五张表

2.进入kylin Web界面reload metadata

3.查看导入模型

4.构建cube

5.选择数据分区范围

6.点击monitor,查看正在构建cube的作业

这一步会比较耗时,因为这步会进行预计算,默认是MapReduce作业。

7.查询构建完成的cube

先运行简单的count,可以看到耗时2.14s,再次执行基本在豪秒级,因为kylin支持缓存功能

代码语言:javascript
复制
select count(*) from KYLIN_SALES

(可左右滑动)

执行多表关联查询

代码语言:javascript
复制
select sum(KYLIN_SALES.PRICE) 
as price_sum,KYLIN_CATEGORY_GROUPINGS.META_CATEG_NAME,KYLIN_CATEGORY_GROUPINGS.CATEG_LVL2_NAME 
from KYLIN_SALES inner join KYLIN_CATEGORY_GROUPINGS
on KYLIN_SALES.LEAF_CATEG_ID = KYLIN_CATEGORY_GROUPINGS.LEAF_CATEG_ID and 
KYLIN_SALES.LSTG_SITE_ID = KYLIN_CATEGORY_GROUPINGS.SITE_ID
group by KYLIN_CATEGORY_GROUPINGS.META_CATEG_NAME,KYLIN_CATEGORY_GROUPINGS.CATEG_LVL2_NAME
order by KYLIN_CATEGORY_GROUPINGS.META_CATEG_NAME asc,KYLIN_CATEGORY_GROUPINGS.CATEG_LVL2_NAME desc

(可左右滑动)

耗时1.89s,查询支持多种展示方式,如:Line chart、bar chart、pie chart,可以点击Visualization查看可视化展示方式,并且可以选择不同的维度和度量字段。

5.Demo2


1.数据准备

下载地址:

https://github.com/fayson/cdhproject/tree/master/kylindemo

2.执行建表语句,执行以下命令

代码语言:javascript
复制
hdfs dfs -put employee.csv /tmp/data/kylin/
hdfs dfs -put employee.csv /tmp/data/kylin/
beeline -u "jdbc:hive2://hadoop2.macro.com:10000/default" -n hive -f create_table.sql

(可左右滑动)

3.创建project

4.加载Hive表

5.创建model,入project的名称和描述:

6.选择事实表,并点击add Lookup Table查询表

7.选择维度字段

8.选择度量字段:

9.如果有分区选择分区表和列

10.model创建完成

11.创建cube

12.选择model

13.选择维度,这里把model中设置的维度都勾选上

14.选择度量指标,可以添加,比如sum、Max等

15.默认,下一步

16.默认,下一步

17.cube创建完成

18.构建cube

19.查看构建cube的job,进入monitor

20.查询

先执行简单查询,

查询语句:

代码语言:javascript
复制
select count(*) from EMPLOYEE和select max(salary) from EMPLOYEE

(可左右滑动)

可以看到耗时分别在0.19s和0.11秒

21.统计各部门员工薪资总和,执行以下语句

代码语言:javascript
复制
select d.ID,sum(e.SALARY) as salary from EMPLOYEE as e left join DEPARTMENT as d on e.DEPTID=d.id group by d.ID order by salary desc

(可左右滑动)

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。

推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-05-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档