前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >如何在CDH中使用HPLSQL实现存储过程

如何在CDH中使用HPLSQL实现存储过程

作者头像
Fayson
修改2018-04-01 19:16:47
4.3K0
修改2018-04-01 19:16:47
举报
文章被收录于专栏:Hadoop实操

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。

1.文档编写目的


目前版本的Hive中没有提供类似存储过程的功能,使用Hive做数据应用开发时候,一般有以下两种方法:

  1. 将一段一段的HQL语句封装在Shell或者其他脚本中,然后以命令行的方式调用,完成一个业务或者一张报表的统计分析。
  2. 使用HPL/SQL (Procedural SQL on Hadoop,在Hive的版本(2.0)中,会将该模块集成进来)。该解决方案不仅支持Hive,还支持在SparkSQL,其他NoSQL,甚至是RDBMS中使用类似于Oracle PL/SQL的功能,这将极大的方便数据开发者的工作,Hive中很多之前比较难实现的功能,现在可以很方便的实现,比如自定义变量、基于一个结果集的游标、循环等等。

本文档主要讲述如何使用HPL/SQL在Hive中实现存储过程。

  • 内容概述

1.安装及配置HPL/SQL

2.自定义函数和游标

3.存储过程改造

4.总结

  • 测试环境

1.CM和CDH版本为5.11.2

2.RedHat7.2

  • 前置条件

1.CDH集群正常

2.HiveServer2服务安装且正常运行

3.JDK1.6以上

2.安装及配置HPL/SQL


1.从http://www.hplsql.org/download下载最新的HPL/SQL

2.解压安装包

代码语言:txt
复制
[ec2-user@ip-172-31-22-86 hive-plsql]$ tar -zxvf hplsql-0.3.31.tar.gz 
hplsql-0.3.31/
hplsql-0.3.31/hplsql-0.3.31.jar
hplsql-0.3.31/hplsql
hplsql-0.3.31/antlr-runtime-4.5.jar
hplsql-0.3.31/hplsql.cmd
hplsql-0.3.31/LICENSE.txt
hplsql-0.3.31/hplsql-site.xml
hplsql-0.3.31/README.txt
[ec2-user@ip-172-31-22-86 hive-plsql]$ 

3.修改执行权限

进入hplsql-0.3.31目录,修改hplsql文件执行权限

代码语言:txt
复制
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ sudo chmod +x hplsql

4.配置CDH集群环境

编辑hplsql文件,根据你的实际环境配置HADOOP_CLASSPATH,配置如下:

代码语言:txt
复制
#!/bin/bash

CDH_HOME=/opt/cloudera/parcels/CDH/lib
JAVA_HOME=/usr/java/jdk1.7.0_67-cloudera
export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/lib

export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop/*"
export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop/lib/*"
export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/etc/hadoop/conf"

export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop-mapreduce/*"
export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop-mapreduce/lib/*"

export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop-hdfs/*"
export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop-hdfs/lib/*"

export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop-yarn/*"
export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hadoop-yarn/lib/*"

export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hive/lib/*"
export "HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$CDH_HOME/hive/conf"

export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=$CDH_HOME/hadoop/lib/native"

SCRIPTPATH=`pwd`

java -cp $SCRIPTPATH:$HADOOP_CLASSPATH:$SCRIPTPATH/hplsql-0.3.31.jar:$SCRIPTPATH/antlr-runtime-4.5.jar $HADOOP_OPTS org.apache.hive.hplsql.Hplsql "$@"

以上标红部分需要根据你实际的环境进行配置。

5.测试配置是否生效

代码语言:txt
复制
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -version
/home/ec2-user/hive-plsql/hplsql-0.3.31
HPL/SQL 0.3.31
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ 

6.配置和启动Hive的JDBC服务HiveServer2

HPL/SQL与Hive通过JDBC方式连接,因此需要先启动HiveServer2。在Cloudera Manager中确认HiveServer2实例已经启动

7.配置HPL/SQL与Hive的连接

编辑hplsql-site.xml,修改以下配置,以连接到HiveServer2服务(注意,hostname默认是localhost,如果是从HiveServer2的主机连接,可以不用做任何修改)

代码语言:txt
复制
<property>
    <name>hplsql.conn.default</name>
    <value>hive2conn</value>
    <description>The default connection profile</description>
</property>
<property>
    <name>hplsql.conn.hiveconn</name>
  <value>org.apache.hive.jdbc.HiveDriver;jdbc:hive2://localhost:10000;hive;hive</value>
    <description>HiveServer2 JDBC connection (embedded mode)</description>
</property>

8.使用hplsql执行HPL/SQL语句,测试是否正常运行

代码语言:txt
复制
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -e "CURRENT_DATE+1"
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -e "SELECT * FROM test LIMIT 1" 

能够正确显示数据库列表,则说明与HiveServer2连接已经成功。创建测表,插入测试数据

代码语言:txt
复制
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -e "create table test_table (id string, names string) stored as textfile"
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -e "insert into test_table values('1','a')"
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -e "select * from test_table"

3.自定义函数和游标


将下面的HPL/SQL语句保存到1.hql文件中:

代码语言:txt
复制
CREATE FUNCTION hello(text STRING)
 RETURNS STRING
BEGIN
 RETURN 'Hello, ' || text || '!';
END;

FOR item IN (
  SELECT s1,s2 FROM test limit 10
)
LOOP
PRINT item.s1 || '|' || item.s2 || '|' || hello(item.s1);
END LOOP;

上面的语句中,第一部分创建了一个自定义函数hello,传入一个字符串,返回Hello,字符串! 第二部分使用FOR .. LOOP游标,从Hive的表中获取10条记录,打印出两个字段的内容。

使用命令./hplsql -f 1.hql指定上面的HPL/SQL语句块:

代码语言:txt
复制
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ ./hplsql -f 1.hql 
...
Query executed successfully (208 ms)
name1|age1|Hello, name1!
name2|age2|Hello, name2!
name3|age3|Hello, name3!
name4|age4|Hello, name4!
name5|age5|Hello, name5!
name6|age6|Hello, name6!
name7|age7|Hello, name7!
name8|age8|Hello, name8!
name9|age9|Hello, name9!
name10|age10|Hello, name10!
[ec2-user@ip-172-31-22-86 hplsql-0.3.31]$ 

4.存储过程改造


如下是使用TPC-DS真实示例改造的存储过程

需要改造的存储过程为:

改造为Hive存储过程:

执行该存储过程

执行完毕

任务在集群的Yarn中查看

结果查看:

5.总结


Hive的存储过程工具HPL/SQL:

  • 支持存储过程
  • 支持控制流
  • 支持异常处理
  • 支持游标
  • 支持package 语法

醉酒鞭名马,少年多浮夸! 岭南浣溪沙,呕吐酒肆下!挚友不肯放,数据玩的花! 温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。


推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-10-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档