Hive thrift服务(将Hive作为一个服务器,其他机器可以作为客户端进行访问)

步骤一:启动为前台:bin/hiveserver2 步骤二:启动为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 1:启动成功后,可以在别的节点上用beeline去连接   方式一:     hive/bin/beeline  回车,进入beeline的命令界面     输入命令连接hiveserver2     beeline> !connect jdbc:hive2//master:10000     (master机器是hiveserver2所启动的那台主机名,端口默认是10000)   方式二:     或者启动就连接:     bin/beeline -u jdbc:hive2://master:10000 -n hadoop 接下来就可以做正常sql查询了

1:将Hive作为一个服务器,其他机器可以作为客户端进行访问:

2:然后寻找符合thrift的这种协议的客户端来连这个服务,然而hive自带这种客户端(我这里复制本台机器,弄了两个窗口):

然后呢,就是开启了命令行客户端了,然后了连接你的hive即可。我这里遇到一个错误,顺手贴一下吧。

 造成这个错误的原因是!connect jdbc:hive2//master:10000写成!connect jdbc:hive2//localhost:10000即可。

 1 [root@master apache-hive-1.2.1-bin]# cd bin/
 2 [root@master bin]# ls
 3 beeline  ext  hive  hive-config.sh  hiveserver2  metatool  schematool
 4 [root@master bin]# ./beeline 
 5 Beeline version 1.2.1 by Apache Hive
 6 beeline> !connect jdbc:hive2//master:10000
 7 scan complete in 1ms
 8 17/12/12 04:42:53 [main]: ERROR beeline.ClassNameCompleter: Fail to parse the class name from the Jar file due to the exception:java.io.FileNotFoundException: minlog-1.2.jar (No such file or directory)
 9 17/12/12 04:42:53 [main]: ERROR beeline.ClassNameCompleter: Fail to parse the class name from the Jar file due to the exception:java.io.FileNotFoundException: objenesis-1.2.jar (No such file or directory)
10 17/12/12 04:42:53 [main]: ERROR beeline.ClassNameCompleter: Fail to parse the class name from the Jar file due to the exception:java.io.FileNotFoundException: reflectasm-1.07-shaded.jar (No such file or directory)
11 scan complete in 5708ms
12 No known driver to handle "jdbc:hive2//master:10000"

然后呢我写成beeline> !connect jdbc:hive2://localhost:10000回车。会让你输入账号和密码,这里直接输入你的登陆linux的账号和密码即可,我习惯使用root和其密码操作,虽然不好,但是这里直接输入root账号,123456密码即可登陆。

 1 beeline> !connect jdbc:hive2://localhost:10000
 2 Connecting to jdbc:hive2://localhost:10000
 3 Enter username for jdbc:hive2://localhost:10000: hadoop
 4 Enter password for jdbc:hive2://localhost:10000: 
 5 Error: Failed to open new session: java.lang.RuntimeException: java.lang.RuntimeException: org.apache.hadoop.security.AccessControlException: Permission denied: user=hadoop, access=EXECUTE, inode="/tmp":root:supergroup:drwx------
 6     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkFsPermission(FSPermissionChecker.java:271)
 7     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:257)
 8     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:208)
 9     at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:171)
10     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkPermission(FSNamesystem.java:6545)
11     at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:4182)
12     at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:881)
13     at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:821)
14     at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)
15     at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:619)
16     at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:975)
17     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2040)
18     at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2036)
19     at java.security.AccessController.doPrivileged(Native Method)
20     at javax.security.auth.Subject.doAs(Subject.java:415)
21     at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1656)
22     at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2034) (state=,code=0)
23 0: jdbc:hive2://localhost:10000 (closed)> !connect jdbc:hive2://localhost:10000
24 Connecting to jdbc:hive2://localhost:10000
25 Enter username for jdbc:hive2://localhost:10000: root
26 Enter password for jdbc:hive2://localhost:10000: ******
27 Connected to: Apache Hive (version 1.2.1)
28 Driver: Hive JDBC (version 1.2.1)
29 Transaction isolation: TRANSACTION_REPEATABLE_READ
30 1: jdbc:hive2://localhost:10000> 

登陆以后即可以进行操作,演示如下所示:

停更......

2017-12-12 20:50:44

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏芋道源码1024

分布式消息队列 RocketMQ源码解析:事务消息

本文主要基于 RocketMQ 4.0.x 正式版 1. 概述 2. 事务消息发送 2.1 Producer 发送事务消息 2.2 Broker 处理结束事务请...

3966
来自专栏吉浦迅科技

DAY63:阅读Execution Environment

我们正带领大家开始阅读英文的《CUDA C Programming Guide》,今天是第63天,我们正在讲解CUDA C语法,希望在接下来的37天里,您可以学...

573
来自专栏扎心了老铁

EsRejectedExecutionException排错与线程池类型

1、EsRejectedExecutionException异常示例 java.util.concurrent.ExecutionException: Remo...

3834
来自专栏架构师之路

线上操作与线上问题排查实战

技术同学需要经常登录线上的服务器进行操作,58到家架构部/运维部/58速运技术部,联合进行了一次线上操作与线上问题排查实战演练,同学们反馈有收获,特将实战演练的...

2714
来自专栏MongoDB中文社区

深入浅出MongoDB复制

笔者最近在生产环境中遇到许多复制相关问题,查阅网上资料发现官方文档虽然系统但是不够有深度,网上部分深度文章则直接以源码展示,不利于大家了解。所以本文则是结合前两...

973
来自专栏Java后端技术

磁盘分区以及Linux目录挂载详解

    一直以来,对于磁盘的分区以及Linux目录挂载的概念都不是很清晰,现在趁着春暖花开周末在家没事就研究了下它们,现在来分享我的理解。

885
来自专栏大魏分享(微信公众号:david-share)

内存虚拟化技术介绍之---内存去重

前言 虚拟化的目的是为了提升硬件的资源利用率,包括CPU,内存、IO等。在各种虚拟化中,都有内存压缩、内存去重等技术。本文通过介绍PowerVM的内存去重技术,...

3828
来自专栏架构师之路

线上服务内存OOM问题定位三板斧

相信大家都有感触,线上服务内存OOM的问题,是最难定位的问题,不过归根结底,最常见的原因: 本身资源不够 申请的太多 资源耗尽 58到家架构部,运维部,58速运...

2886
来自专栏杨建荣的学习笔记

一个Oracle监听问题的网络排查

今天在梳理一套环境的时候,发现了一个奇怪的问题,应用端连接正常,但是服务端却有些问题。 假设服务端的IP地址为10.129.128.57 使用t...

3314
来自专栏IT技术精选文摘

深入浅出MongoDB复制

个人介绍 赵景波,3年专职DBA经验,2017 DTCC 讲师,目前主要负责新浪NoSQL服务的运维及研发工作。热衷于开源DB内部原理探究。 综述 笔者最近在生...

2825

扫码关注云+社区