前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >spark sql 无法访问 hive metastore问题解决

spark sql 无法访问 hive metastore问题解决

作者头像
sparkexpert
发布2022-05-07 14:02:53
1.1K0
发布2022-05-07 14:02:53
举报
文章被收录于专栏:大数据智能实战

Spark SQL on Hive是Shark的一个分支,是HIVE执行分析引擎的一个重要利器。在Spark 1.5.1的时候,可以非常简单地在spark shell中进行Hive的访问,然而到了Spark 1.5.2时,发现进入Spark Shell的时候,总是出现报错,其原因总是无法访问hive的metastore,从而无法进行各种操作,相当的烦人的。 看了说明,说是要配置hive thrift服务,然而总是报各种失败! 困扰了很多天,终于搞定了。于是在这边将过程写下来。

(1)进行HIVE的配置

在HIVE配置中

<property>                 <name>hive.metastore.warehouse.dir</name>                 <value>hdfs://master:9000/user/hive/warehouse</value>         </property>     <property>         <name>javax.jdo.option.ConnectionURL</name>         <value>jdbc:mysql://IP:3306/hive?createDatabaseIfNotExist=true</value>     </property>     <property>         <name>javax.jdo.option.ConnectionDriverName</name>         <value>com.mysql.jdbc.Driver</value>     </property>     <property>         <name>javax.jdo.option.ConnectionUserName</name>         <value>root</value>     </property>     <property>         <name>javax.jdo.option.ConnectionPassword</name>         <value>ndscbigdata</value>     </property>

在spark目录下配置,得添加

<property>       <name>hive.metastore.uris</name>       <value>thrift://IP:9083</value>     </property>

(2) 开启hive服务

hive --service metastore

(3) 开启thrift服务

./sbin/start-thriftserver.sh

(4)测试:beeline,进行连接,输入用户名和密码,轻松搞定!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2015-12-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档