首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

如何在退出Hue后关闭Spark会话

查询 2.Hive设置执行引擎为Spark Hive配置了Spark作为默认执行引擎,在通过Hue执行Hive查询后,退出HueSpark的Session并为随着Hue的退出而关闭,操作如下: 登录Hue...查看Yarn的界面显示该Spark Session正在运行 ? 此时退出Hue界面,观察0003的作业任然在运行并为随着Hue的退出而关闭 ?...2.解决方法 ---- 针对上述问题,有如下两种方式解决: 1.从CDH5.8版本开始,在Hue上提供一个用来关闭Spark Session的按钮,用户可以使用此功能来关闭当前会话,操作如下: ?...3.总结 ---- 1.由于Hive使用Spark引擎,所以不同的用户登录Hue执行Hive查询都会创建一个Spark Session会话,如果不关闭会话就会产生大量的未关闭Spark作业占用集资源。...2.同一个用户重复登录Hue不会重复的创建Spark Session 3.上述提供两种方式来关闭会话,一种需要用户手动的操作关闭会话,另一种方式通过HiveServer2服务的会话超时时间来自动结束Spark

2.3K30

0867-7.1.6-HueSpark Notebook与Livy集成问

1.文档编写目的 本篇文章主要介绍如何使用解决CDP7.1.6的Hue中的Spark Notebook与Livy无法进行集成的问题。...修改配置 1.修改Hue的源码(Hue Server节点的都进行修改) [root@c1 ~]# cd /opt/cloudera/parcels/CDH/lib/hue/desktop/core/src...配置 5.在Hue的配置中搜索hue_server_hue_safety_valve,在配置中添加如下内容 [desktop] app_blacklist=zookeeper,oozie,jobsub,...的Web UI页面,执行一条Spark SQL语句 4.总结 1.Hue本身是模拟用户来执行的, 再通过安全认证的方式访问Livy再去让Livy模拟用户,这样就会导致一个问题, Livy只会认为你是...Hue用户,而又要让Hue用户去模拟其他的用户,最终提示模拟不了的问题,所以要关闭Livy的HTTP Kerberos认证。

87220

如何使用Hue创建Spark2的Oozie工作流(补充)

1.文档编写目的 ---- 目前Oozie 的 SparkAction 仅支持Spark1.6, 而并不支持Spark2, 这是 CDH Spark2已知的局限性(https://www.cloudera.com.../documentation/spark2/latest/topics/spark2_known_issues.html#ki_oozie_spark_action ),作为临时的解决方案,您可以使用...继上一篇如何使用Hue创建Spark1和Spark2的Oozie工作流的实现方式外,本文档主要讲述使用shell的方式实现Hue创建Spark2的Oozie工作流。...内容概述 创建shell脚本 创建Oozie工作流 作业调度测试 测试环境 Spark2.1.0 Hue3.9.0 Oozie4.1.0 2.创建sparkJob.sh脚本 ---- 创建一个shell..., 而并不支持Spark2, 这是 CDH Spark2已知的局限性,作为临时的解决方案, 您可以使用 Oozie 的 ShellAction 来调用 Spark2作业。

3K60

Apache Hue 介绍

本篇博客小菌为大家带来的是关于Apache Hue 的介绍!...1.Hue是什么 HUE=Hadoop User Experience Hue是一个开源的Apache Hadoop UI系统,由Cloudera Desktop演化而来,最后Cloudera...2.Hue能做什么 访问HDFS和文件浏览 通过web调试和开发hive以及数据结果展示 查询solr和结果展示,报表生成 通过web调试和开发impala交互式SQL Query spark调试和开发...3.Hue的架构 Hue是一个友好的界面集成框架,可以集成各种大量的大数据体系软件框架,通过一个界面就可以做到查看以及执行所有的框架。...因为本篇博客主要为大家介绍Hue的基础知识,关于应用更多停留在的是理论层面。下篇博客,小菌将为大家带来关于Hue的安装及应用,敬请期待!!!

4.8K10

Hue集成HDFS

相信大家在看了《Hue的安装,配置,编译》之后,都已经成功把Hue安装好了。 ? 接下来,小菌为大家分享的是如何在Hue上集成HDFS!...把数据同步到每台节点上之后,我们接着需要修改hue安装目录下的文件 3.修改hue.ini cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf vim...做完了上面的步骤,到这一步就只剩下重启HDFS和Hue了 因为我们配置了Hadoop的环境变量,所以直接在命令行输入 stop-dfs.sh关闭HDFS,然后再start-dfs.sh开启集群。...启动Hue也很简单 直接输入以下命令即可 cd /export/servers/hue-3.9.0-cdh5.14.0/ build/env/bin/supervisor 然后,来到我们的Hue的UI...看到类似这样的效果,说明我们的Hue集成HDFS就成功了 当然,大家在启动Hue的时候可能会遇到端口被占用的情况,具体的解决方案可以去看看《Hue启动异常,提示address already in use

1.2K20
领券