前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >0644-5.16.1-如何在CDH5中使用Spark2.4 Thrift

0644-5.16.1-如何在CDH5中使用Spark2.4 Thrift

作者头像
Fayson
发布2019-05-31 16:15:27
3.5K2
发布2019-05-31 16:15:27
举报
文章被收录于专栏:Hadoop实操

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github: https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1

文档编写目的

Fayson在前面的文章中介绍过什么是Spark Thrift,Spark Thrift的缺陷,以及Spark Thrift在CDH5中的使用情况,参考《0643-Spark SQL Thrift简介》。

在CDH5中通过自己单独安装的方式运行Thrift服务现在已经调通并在使用的是如下版本组合:

1.在CDH5中安装Spark1.6的Thrift服务,参考《0079-如何在CDH中启用Spark Thrift

2.在CDH5中安装Spark2.1的Thrift服务,参考《0280-如何在Kerberos环境下的CDH集群部署Spark2.1的Thrift及spark-sql客户端

从Spark2.2开始到最新的Spark2.4,因为变化较大,不能够采用上述两种办法直接替换jar包的方式实现,更多的依赖问题导致需要重新编译或者修改更多的东西才能在CDH5中使用最新的Spark2.4的Thrift。本文主要介绍使用网易的一个开源工具Kyuubi来实现Spark Thrift的功能。

  • 测试环境:

1.Redhat7.4

2.CDH5.16.1

3.集群未启用Kerberos

4.Spark2.4.0.cloudera2-1

2

Kyuubi介绍

Kyuubi是Apache Spark的原始Thrift JDBC/ODBC服务的增强版,它由网易开源,并已经使用过到了网易现有的大数据平台中。它主要用于将Spark SQL直接运行到集群,其中包括与HDFS,YARN,Hive Metastore等组件的集成,并且它本身也具备安全功能。Kyuubi是一个可以保证端到端多租户的Spark Thrift服务。

Thrift JDBC/ODBC可以基于Spark SQL提供ad-hoc的SQL查询服务,充当JDBC/ODBC或命令行的分布式查询引擎。在这个模式下,最终用户或应用程序可以直接使用SQL的方式与Spark SQL进行交互,而不需要编写任何代码。我们可以使用一些支持JDBC/ODBC连接的BI工具(例如Tableau,NetEase YouData等),使用大量数据制作漂亮的业务报告。利用Apache Spark的功能,我们可以将在Hadoop之上提供比Hive更好的性能。

但不幸的是,由于Spark自身架构的局限性,要用作企业级产品,与HiveServer2相比存在许多问题,例如多租户隔离,身份验证/授权,高并发性,高可用性等等。Apache Spark社区对该模块的支持一直处于长期停滞状态。

Kyuubi以某种方式增强了Thrift JDBC/ODBC服务以解决这些现有问题,如下表所示。

参考:

代码语言:javascript
复制
https://github.com/yaooqinn/kyuubi

关于网易自身的描述参考《0643-转载-余利华:网易大数据平台架构实践分享

3

在CDH5中使用Kyuubi

1.确认目前CDH的环境

2.确认Spark2的版本

3.到Kyuubi下载已经编译好的最新的包。

地址:

代码语言:javascript
复制
https://github.com/yaooqinn/kyuubi/releases

4.启动kyuubi服务。

代码语言:javascript
复制
export YARN_CONF_DIR=/etc/hadoop/conf.cloudera.yarn/
export SPARK_HOME=/opt/cloudera/parcels/SPARK2/lib/spark2    
./start-kyuubi.sh \
--master yarn \
--deploy-mode client \
--driver-memory 10g \
--conf spark.kyuubi.frontend.bind.port=10009

5.通过beeline连接Spark Thrift,执行最简单的查询

6.从CM的界面上个可以查看Kyuubi在YARN上启动了一个Application Master

7.读取较大数据的textfile的Hive表。

在Spark界面上可以查看到该任务:

8.执行较为复杂的SQL

9.读取Parquet表。

通过以上测试结果可以看到通过beeline可以连接到Spark2.4 Thrift服务,并且执行Spark SQL任务。我们在Hive中创建的文本表或者Parquet表,都能被Spark SQL正常访问,任务执行完毕后,在Spark的界面上也能够正常查看到该任务。自此,Spark2.4 Thrift服务在CDH5.16.1上测试通过。

4

其他问题

1.首次运行Kyuubi服务启动失败。

代码语言:javascript
复制
WARNING: Running kyuubi-daemon.sh from user-defined location.
/opt/cloudera/parcels/SPARK2/lib/spark2/bin/load-spark-env.sh: line 77: /opt/cloudera/parcels/SPARK2-2.4.0.cloudera2-1.cdh5.13.3.p0.1041012/lib/spark2/bin/kyuubi-daemon.sh: No such file or directory

2.注释掉/opt/cloudera/parcels/SPARK2/lib/spark2/bin/load-spark-env.sh中的第77行,保存文件并退出。 。

3.再次启动Kyuubi成功。

服务启动成功,端口能正常监听,问题解决。

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-05-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
专用宿主机
专用宿主机(CVM Dedicated Host,CDH)提供用户独享的物理服务器资源,满足您资源独享、资源物理隔离、安全、合规需求。专用宿主机搭载了腾讯云虚拟化系统,购买之后,您可在其上灵活创建、管理多个自定义规格的云服务器实例,自主规划物理资源的使用。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档