首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何获取Hive正在执行或者已结束的的MapReduce作业的SQL语句

语句,如下: [xxa06ijg1r.jpeg] 本文主要介绍三种方式来获取Hive正在执行或者已结束的的MapReduce作业的SQL语句,一种是通过MapReduce API获取执行作业的xml配置文件.../jobs/job_1519613953021_0029/conf > a.xml (可左右滑动) [wzdxichp6d.jpeg] 3.通过hive.query.string属性过滤查看a.xml文件...[bljuptg27s.jpeg] 通过获取接口获取运行中Hive作业可以查看到Hive的SQL语句,该信息对应到HDFS的/user/$USER/.staging/$JOBID/job.xml文件中....ap-southeast-1.compute.internal:19888/ws/v1/history/mapreduce/jobs/job_1519613953021_0029/conf > b.xml...Hive作业,点击箭头可以展开查看完整的SQL,并察看查询的基本统计信息 [5516gqj62r.jpeg] 4.通过Cloudera Manager的API接口获取 ---- 1.在命令行执行如下命令获取作业详细信息

6.4K50
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    如何获取小程序的源代码

    (如下图) 找到源代码,并copy到本地 首先进入shell,在cmd内输入 adb shell 输入 su (切换到超级用户) 输入 cd /data/data/com.tencent.mm/MicroMsg...可以参考日期,也就是你第一次打开这个小程序的日期(或者这个小程序更新的日期)如果无法确定的话,也可以把所有的文件夹的小程序源代码弄出来。。。...(也就是具体源代码位置 输入 ls -ll 找到时间为最近并且后缀是wxapkg的文件 cp _1123949441_93.wxapkg /sdcard/ (把刚才找到的文件copy到根目录...表示把上面找到的文件copy到电脑上 这个 _1123949441_93.wxapkg 是上面找到的名字 解包 在上面我们已经把小程序的源代码下载到本地了 后面就是解包了,先到https://github.com...copy到本地的位置) 然后就是执行这个python文件 python wxapkg_unpack.py 然后就可以看到已经生成源代码了 总结 上面,我们就已经获取到微信小程序的源代码了,至于后续怎么做

    4.6K140

    Hadoop生态上几个技术的关系与区别:hive、pig、hbase 关系与区别

    当你想在你的数据上做一些转换,并且不想编写MapReduce jobs就可以用Pig....如果你有数据仓库的需求并且你擅长写SQL并且不想写MapReduce jobs就可以用Hive代替。...MapReduce jobs编写工作的批处理系统,HBase是为了支持弥补Hadoop对实时操作的缺陷的项目 。...Hive query就是MapReduce jobs可以从5分钟到数小时不止,HBase是非常高效的,肯定比Hive高效的多。 介绍: 一、什么是hive???...、执行器完成HQL查询语句从语法分析,编译,优化以及查询计划的生成,生成的查询计划存储在HDFS中,并随后被mapreduce调用执行 Hadoop:用 HDFS 进行存储,利用 MapReduce 进行计算

    1.2K10

    大数据必知必会 | Hive架构设计和原理

    除此之外,Hive还支持 WUI 访问 Hive内部执行流程:解析器(解析SQL语句)、编译器(把SQL语句编译成MapReduce程序)、优化器(优化MapReduce程序)、执行器(将MapReduce...知晓了架构,我们接下来通过一条常见的 SQL 语句,来看看 Hive 是如何将其转换成 MapReduce 来计算的。...值得注意的是,有些 HiveQL 语句不会被 Hive 转化成 MapReduce 作业,Hive 只会从 DataNode 将数据获取到了之后,按照顺序依次输出。...有 2 张表,一张 是 page_view 页面浏览记录表,一张是 user 用户表 如果我想收集到每个页面浏览用户的age信息,该如何获取。...所以我们如果打开 Hive 的源代码,看 join 相关的代码,会看到一个两层 for 循环,对来自两张表的记录进行连接操作。

    2K21

    如何获取Hive正在执行或已结束的SQL语句

    本文主要介绍两种方式来获取Hive正在执行或者已结束的的MapReduce作业的SQL语句,一种是通过MapReduce API获取执行作业的xml配置文件,另一种是通过Cloudera Manager...1534299721148_0845/ws/v1/mapreduce/jobs/job_1534299721148_0845/conf > a.xml image.png 通过hive.query.string...属性过滤查看a.xml文件 image.png 通过获取接口,可获取运行中Hive作业的SQL语句,该信息对应HDFS的 /user/$USER/.staging/$JOBID/job.xml文件.../ws/v1/history/mapreduce/jobs/job_1534299721148_0845/conf > b.xml image.png 通过hive.query.string属性过滤查看...b.xml文件 image.png 通过JobHistory的API接口,可获取Hive历史作业执行SQL语句,该信息对应HDFS的/user/history/done/2018/08/28/000000

    10K00

    Hive深入浅出

    MapReduce 如何搞定 复杂查询好难 Join如何实现 为什么要使用Hive...解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。...Hive 的数据存储在 HDFS 中,大部分的查询由 MapReduce 完成(包含 * 的查询,比如 select * from tbl 不会生成 MapRedcue 任务)。...表是否分区,如何添加分区,都可以通过Hive-QL语言完成。通过分区,即目录的存放形式,Hive可以比较容易地完成对分区条件的查询。...由于 MapReduce 本身具有较高的延迟,因此在利用 MapReduce 执行 Hive 查询时,也会有较高的延迟。相对的,数据库的执行延迟较低。

    47220

    当我们在学习Hive的时候在学习什么?「硬刚Hive续集」

    Driver组件:该组件包括Parser、Compiler、Optimizer和Executor,它的作用是将我们写的HiveQL(类SQL)语句进行解析、编译、优化,生成执行计划,然后调用底层的mapreduce...):Driver借助编译器解析查询,检查语法和查询计划或查询需求; GetMetaData(获取元数据信息):编译器将元数据请求发送到Metastore(任何数据库); SendMetaData(发送元数据...逻辑层优化器进行 OperatorTree 变换,合并 Operator,达到减少 MapReduce Job,减少数据传输及 shuffle 数据量; 生成物理执行计划: 遍历 OperatorTree...,翻译为 MapReduce 任务; 优化物理执行计划: 物理层优化器进行 MapReduce 任务的变换,生成最终的执行计划。...大概的原理是: 通过SparkSql,加载Hive的配置文件,获取到Hive的元数据信息 通过SparkSql获取到Hive的元数据信息之后就可以拿到Hive的所有表的数据 接下来就可以通过通过SparkSql

    71440

    【说站】mysql如何获取hive表的元数据信息

    mysql如何获取hive表的元数据信息 说明 1、通过hive的元数据库(通常为Msyql)获得,通过sql的关联即可。...2、获取表名称及表创建时间、库名及库注释,以S_ID作为关联关系获取C_ID,字段名称及字段注释在表中。 实例 SELECT   t2....`TYPE_NAME` `column_data_type` -- 字段数据类型 FROM   tbls t1 -- 获取表名称及表创建时间 JOIN   dbs t2 -- 获取库名及库注释 ON   ...C_ID,用以获取字段注释 ON   t1.SD_ID = t4.SD_ID -- 以S_ID作为关联关系获取C_ID JOIN   columns_v2 t5 -- 字段名称及字段注释都在此表中 ON...  t4.CD_ID = t5.CD_ID 以上就是mysql获取hive表的元数据信息,希望对大家有所帮助。

    2.7K10

    Hive计算引擎大PK,万字长文解析MapRuce、Tez、Spark三大引擎

    上图的基本流程是: 步骤1:UI 调用 DRIVER 的接口; 步骤2:DRIVER 为查询创建会话句柄,并将查询发送到 COMPILER(编译器)生成执行计划; 步骤3和4:编译器从元数据存储中获取本次查询所需要的元数据...,该元数据用于对查询树中的表达式进行类型检查,以及基于查询谓词修建分区; 步骤5:编译器生成的计划是分阶段的DAG,每个阶段要么是 map/reduce 作业,要么是一个元数据或者HDFS上的操作。...你可以参考: https://tech.meituan.com/2014/02/12/hive-sql-to-mapreduce.html 编译 SQL 的任务是在上节中介绍的 COMPILER(编译器组件...,通过限制 ReduceSinkOperator 生成的内容来限制来自 mapper 的输出 减少用户提交的SQL查询所需的Tez作业数量 如果是简单的提取查询,避免使用MapReduce作业 对于带有聚合的简单获取查询...同时,Hive on Spark保证对现有的MapReduce和Tez模式在功能和性能方面不会有任何影响。 对于选择Spark的用户,应使其能够自动的获取Hive现有的和未来新增的功能。

    3.8K43

    Hive计算引擎大PK,万字长文解析MapRuce、Tez、Spark三大引擎

    上图的基本流程是: 步骤1:UI 调用 DRIVER 的接口; 步骤2:DRIVER 为查询创建会话句柄,并将查询发送到 COMPILER(编译器)生成执行计划; 步骤3和4:编译器从元数据存储中获取本次查询所需要的元数据...,该元数据用于对查询树中的表达式进行类型检查,以及基于查询谓词修建分区; 步骤5:编译器生成的计划是分阶段的DAG,每个阶段要么是 map/reduce 作业,要么是一个元数据或者HDFS上的操作。...你可以参考: https://tech.meituan.com/2014/02/12/hive-sql-to-mapreduce.html 编译 SQL 的任务是在上节中介绍的 COMPILER(编译器组件...,通过限制 ReduceSinkOperator 生成的内容来限制来自 mapper 的输出 减少用户提交的SQL查询所需的Tez作业数量 如果是简单的提取查询,避免使用MapReduce作业 对于带有聚合的简单获取查询...同时,Hive on Spark保证对现有的MapReduce和Tez模式在功能和性能方面不会有任何影响。 对于选择Spark的用户,应使其能够自动的获取Hive现有的和未来新增的功能。

    3.1K52

    Hive SQL底层执行过程详细剖析(好文收藏)

    COMPILER:编译器。负责将 SQL 转化为平台可执行的执行计划。对不同的查询块和查询表达式进行语义分析,并最终借助表和从 metastore 查找的分区元数据来生成执行计划。...上图的基本流程是: 步骤1:UI 调用 DRIVER 的接口; 步骤2:DRIVER 为查询创建会话句柄,并将查询发送到 COMPILER(编译器)生成执行计划; 步骤3和4:编译器从元数据存储中获取本次查询所需要的元数据...Hive SQL 编译成 MapReduce 过程 编译 SQL 的任务是在上节中介绍的 COMPILER(编译器组件)中完成的。...阶段三:生成逻辑执行计划 遍历QueryBlock,翻译为执行操作树OperatorTree: Hive最终生成的MapReduce任务,Map阶段和Reduce阶段均由OperatorTree组成。...,通过限制 ReduceSinkOperator 生成的内容来限制来自 mapper 的输出 减少用户提交的SQL查询所需的Tez作业数量 如果是简单的提取查询,避免使用MapReduce作业 对于带有聚合的简单获取查询

    8.9K32
    领券