前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python3通过JDBC访问非Kerberos环境的Impala

Python3通过JDBC访问非Kerberos环境的Impala

作者头像
Fayson
发布2018-08-03 14:36:22
1.2K0
发布2018-08-03 14:36:22
举报
文章被收录于专栏:Hadoop实操Hadoop实操

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github: https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1.文档编写目的

在前面Fayson介绍了在Python2的环境下《如何使用Python Impyla客户端连接Hive和Impala》及《Python3环境通过JDBC访问非Kerberos环境的Hive》,本篇文章Fayson在Python3的环境下使用Impyla访问非Kerberos环境下的Impala以及将获取到的结果集转换为Pandas的DataFrame。

  • 本次Fayson的测试环境为

1.CM5.14.3和CDH5.14.2

2.Redhat7.4

3.Python 3.6.5

2.前置环境准备及说明

在使用Impyla访问Hive前,需要安装Python的依赖包,具体需要安装的依赖包列表如下:

代码语言:javascript
复制
six
bit_array
impyla
thrift
thrift_sasl==0.2.0

(可左右滑动)

1.Python3的安装目录在/opt/cloudera/anaconda3

2.升级Python的pip版本

代码语言:javascript
复制
[root@cdh02 ~]# /opt/cloudera/anaconda3/bin/pip install --upgrade pip

(可左右滑动)

3.使用Python3的pip安装上述的依赖包

代码语言:javascript
复制
/opt/cloudera/anaconda3/bin/pip install six
/opt/cloudera/anaconda3/bin/pip install bit_array
/opt/cloudera/anaconda3/bin/pip install thrift
/opt/cloudera/anaconda3/bin/pip install thrift_sasl==0.2.0
/opt/cloudera/anaconda3/bin/pip install impyla

(可左右滑动)

3.Python3访问Hive示例代码

代码语言:javascript
复制
[root@cdh02 python_code]# vim impaly_impala.py 
from impala.dbapi import connect
from impala.util import as_pandas
conn = connect(host='cdh01.fayson.com',port=25004,database='default')
print(conn)
cursor = conn.cursor()
cursor.execute('show databases')
results = cursor.fetchall()
print(results)

cursor.execute('select * from ods_user limit 10')
df = as_pandas(cursor)
print(df)

(可左右滑动)

4.示例运行

在服务上使用如下命令运行Python代码

代码语言:javascript
复制
[root@cdh02 python_code]# /opt/cloudera/anaconda3/bin/python impaly_impala.py 

(可左右滑动)

5.总结

1.Impyla包既可以访问Hive也可以访问Impala,所以在使用Impyla访问Impala时也需要安装相应的依赖包。

2.在使用Impyla访问非Kerberos环境的Impala时,不需要指定user和auth_mechanism参数,否则会连接失败。

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-07-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档