hive中配置hwi

vi $HIVE_HOME/conf/hive-site.xml 配置如下

 <property>
   <name>hive.hwi.listen.host</name>
   <value>192.168.0.118</value>
   <description>This is the host address the Hive Web Interface will listen on</description>
 </property>
<property>
   <name>hive.hwi.listen.port</name>
   <value>9999</value>
   <description>This is the port the Hive Web Interface will listen on</description>
 </property>
<property>
   <name>hive.hwi.war.file</name>
   <value>lib/hive-hwi-0.8.1.war</value>
   <description>This is the WAR file with the jsp content for Hive Web Interface</description>
 </property>

执行hadoop@ubuntu118:~$ hive --service hwi

出现以下类似信息,则表示启动hwi服务成功。 INFO hwi.HWIServer: HWI is starting up 。。。。 INFO mortbay.log: Started SocketConnector@192.168.0.118:9999

通过http://192.168.0.118:9999/hwi访问启动的web服务。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏运维前线

kvm基础使用及Virt-tools工具使用

kvm基础使用 查看虚拟机状态 [root@sh-kvm-1 ~]# virsh list --all Id Name ...

44380
来自专栏JadePeng的技术博客

Jhipster Registry(Eureka Server) Docker双向联通与高可用部署

构建Image并push到registry,这里是192.168.86.8:5000/registry-dev

20950
来自专栏Hadoop实操

在Kerberos环境使用Hue通过Oozie执行Sqoop作业报错异常分析

关于Sqoop抽取Hive Parquet表数据到MySQL可以参考Fayson前面的文章《Sqoop抽取Hive Parquet表数据到MySQL异常分析》。

50440
来自专栏about云

spark编译:构建基于hadoop的spark安装包及遇到问题总结

问题导读 1.spark集群能否单独运行? 2.如何在spark中指定想编译的hadoop版本? 3.构建的时候,版本选择需要注意什么? 上一篇 如何查看...

56760
来自专栏蓝天

Yarn上运行spark-1.6.0

本文约定Hadoop 2.7.1安装在/data/hadoop/current,而Spark 1.6.0被安装在/data/hadoop/spark,其中/...

13210
来自专栏Hadoop实操

非Kerberos环境下Kafka数据到Flume进Hive表

前面Fayson讲过《如何在Kerberos环境使用Flume采集Kafka数据并写入HDFS》,本篇文章主要讲述如何在非Kerberos环境下将Kafka数据...

68340
来自专栏xingoo, 一个梦想做发明家的程序员

Oozie分布式任务的工作流——邮件篇

在大数据的当下,各种spark和hadoop的框架层出不穷。各种高端的计算框架,分布式任务如乱花般迷眼。你是否有这种困惑!——有了许多的分布式任务,但是每天需...

39070
来自专栏JMCui

Docker 系列七(Duubo 微服务部署实践).

    之前我们公司部署服务,就是大家都懂的那一套(安装JDK、Tomcat —> 编译好文件或者打war包上传 —> 启动Tomcat),这种部署方式一直持续...

29150
来自专栏Hadoop实操

如何使用Sentry为Kafka赋权

91940
来自专栏个人分享

spark单机模式简单搭建

待安装列表 hadoop hive scala spark 一.环境变量配置: ~/.bash_profile PATH=$PATH:$HOME/bin

58110

扫码关注云+社区

领取腾讯云代金券