0463-如何使用SQuirreL通过JDBC连接CDH的Hive(方式二)

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github: https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1

文章编写目的

Fayson在前面的《0459-如何使用SQuirreL通过JDBC连接CDH的Hive(方式一)》简单的介绍了SQuirreL SQL Client的安装、注册Hive Driver以及使用。前一篇文章中使用的JDBC驱动是Hive默认的,本篇文章Fayson使用Cloudera官网提供的Hive JDBC驱动注册访问。

  • 测试环境

1.RedHat7.2

2.CM和CDH版本为5.15.0

3.Window Server 2012R2

4.SQuirreL3.9.0

2

SQuirreL添加Hive驱动

在使用SQuirreL访问Hive前,需要在先注册Hive的驱动,那接下来就先准备Hive JDBC驱动包,Fayson使用的Maven方式将驱动及依赖导出。

1.在Cloudera的官网下载Hive JDBC驱动包,地址如下:

https://www.cloudera.com/downloads/connectors/hive/jdbc/2-6-2.html

2.将下载的Hive JDBC Driver驱动包解压到本地目录

将ClouderaHiveJDBC41-2.6.2.1002解压得到HiveJDBC41.jar驱动包,该驱动包包含了HiveJDBC驱动的依赖包。

3.打开SQuirreL在Drivers列表页面点击添加Hive Driver

点击“+”添加Hive Driver

添加Hive JDBC的驱动包,将上一步下载的Cloudera Hive JDBC驱动包导入

点击“List Drivers”按钮,自动查找驱动包中的驱动类

4.点击“OK”,完成Hive Driver注册

3

SQuirreL访问Hive测试

在上一步完成了Hive Driver的注册,那么接下来就测试访问Hive库。

1.在SQuirreL客户端界面上点击”Aliases”

2.点击“+”添加一个新的数据库连接,输入连接名称、选择注册的Hive驱动

输入用户名和密码(Fayson这里的Hive访问集成了AD所以需要输入)

URL: jdbc:hive2://cdh2.fayson.com:10000;AuthMech=3

3.点击“Test”进行测试

访问成功

4.点击“OK”完成连接创建

5.点击“Connect”连接CDH的Hive库,如下显示为连接成功

6.执行SQL语句进行查询操作

其它更多功能大家去使用吧,这里Fayson就不在做过多的介绍了。

4

总结

Cloudera提供的Hive JDBC驱动与Hive原生的驱动类有些区别,驱动类需要指定为“com.cloudera.hive.jdbc41.HS2Driver”。使用Cloudera提供的驱动包不需要考虑驱动包依赖的问题,默认的将Hive驱动所依赖的包都打包在里面。

Cloudera官网提供的Hive JDBC驱动包支持非安全模式认证、安全模式认证(LDAP、Kerberos)等。在驱动包提供的pdf文档中介绍了各种认证方式的URL写法,大家可以参考PDF中的使用指南访问不同环境下的Hive。

PDF文档中提到了使用transportMode和HttpPath的访问方式,HiveServer2服务默认提供基于TCP的访问模式,可以通过配置HiveServer2服务的如下参数启用HTTP模式:

hive.server2.transport.mode=http
hive.server2.thrift.http.port=10001
hive.server2.thrift.http.path=cliservice

使用Http方式访问HiveServer2的方式,Fayson还暂未做验证,如上参数仅供参考。

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

本文分享自微信公众号 - Hadoop实操(gh_c4c535955d0f)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-11-26

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Hadoop实操

如何修改CM及CDH元数据库配置

在前面Fayson介绍了《如何实现CDH元数据库MySQL的主主互备》和《如何实现CDH元数据库MySQL的高可用》,实现了MySQL的高可用后访问地址有了变化...

75050
来自专栏Hadoop实操

如何修改CDH集群元数据库地址

在生产环境CDH集群中会遇到元数据库的迁移,迁移后数据库的IP地址发生变化或是元数据库做主备,在主节点挂掉后,我们需要将数据库CDH集群中的元数据库地址指向新的...

42530
来自专栏Hadoop实操

如何指定Spark2作业中Driver和Executor使用指定范围内端口

在CDH集群中提交Spark作业,大家也都知道Spark的Driver和Executor之间通讯端口是随机的,Spark会随选择1024和65535(含)之间的...

1.5K20
来自专栏Hadoop实操

如何修改CDH集群的DataNoe节点HOSTNAME

在使用CDH集群的过程中,会涉及到修改集群DataNode的HOSTNAME,在修改HOSTSNAME的时候需要注意什么,如何让新修改HOSTSNAME的CDH...

68150
来自专栏编程

大数据入门基础系列之浅谈Hive的用户接口

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 在前面的博文里,我已经介绍了 Hive 对外提供了三种服务模式来达到用户接口,即 : (1) H...

20390
来自专栏分布式系统和大数据处理

安装和配置Hadoop集群(3节点)

在 安装和配置Hadoop(单节点) 这篇文章中,已经进行了Hadoop单机伪集群模式的部署。生产环境中,Hadoop都是以集群方式进行安装和部署的,否则,就不...

94730
来自专栏个人分享

Spark on Yarn 架构解析

我们都知道yarn重构根本的思想,是将原有的JobTracker的两个主要功能资源管理器 和 任务调度监控 分离成单独的组件。新的架构使用全局管理所有应用程序的...

44710
来自专栏Hadoop实操

如何在CM中启用YARN的使用率报告

CDH的高级功能"群集利用率报告"(Cluster Utilization Report)是整个多租户方案体系里的一部分,可以用来查看租户的资源使用情况,并可以...

56150
来自专栏分布式系统和大数据处理

安装和配置Hadoop集群(3节点)

在 安装和配置Hadoop(单节点) 这篇文章中,已经进行了Hadoop单机伪集群模式的部署。生产环境中,Hadoop都是以集群方式进行安装和部署的,否则,就不...

47350
来自专栏分布式系统和大数据处理

配置Hadoop集群客户端

在Hadoop和Spark集群搭建好了以后,如果我们需要向集群中发送、获取文件,或者是执行MapReduce、Spark作业,通常是搭建一个外围的、集群的客户端...

28740

扫码关注云+社区

领取腾讯云代金券