如何使用Oozie API接口向Kerberos环境的CDH集群提交Shell作业

温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 Fayson的github:https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢

1.文档编写目的


前面Fayson介绍了使用Oozie API向Kerberos和非Kerberos集群提交Spark和Java作业,本篇文章主要介绍如何使用Oozie Client API向Kerberos环境的CDH集群提交Shell Action工作流。

  • 内容概述

1.环境准备及描述

2.示例代码编写及测试

3.总结

  • 测试环境

1.CM和CDH版本为5.13.1

  • 前置条件

1.集群已启用Kerberos

2.环境准备及描述


1.编写测试ooziejob.sh脚本

#!/bin/bash

name=$1
echo "hello $name" >> /tmp/oozieshell.log

(可左右滑动)

2.我们将作业运行的ooziejob.sh上传到HDFS的/faysontest/jars目录

kinit fayson
klist
hadoop fs -mkdir -p hadoop fs -mkdir -p /user/fayson/oozie/shellaction/lib
hadoop fs -put ooziejob.sh /user/fayson/oozie/shellaction/lib
hadoop fs -ls /user/fayson/oozie/shellaction/lib

(可左右滑动)

3.定义一个Shell Action的workflow.xml文件,内容如下:

<workflow-app name="ShellWorkflow" xmlns="uri:oozie:workflow:0.5">
    <start to="shell-d9b6"/>
    <kill name="Kill">
        <message>Action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
    </kill>
    <action name="shell-d9b6">
        <shell xmlns="uri:oozie:shell-action:0.1">
            <job-tracker>${jobTracker}</job-tracker>
            <name-node>${nameNode}</name-node>
            <exec>${exec}</exec>
            <argument>${argument}</argument>
            <capture-output/>
        </shell>
        <ok to="End"/>
        <error to="Kill"/>
    </action>
    <end name="End"/>
</workflow-app>

(可左右滑动)

注意:workflow.xml文件中使用的参数配置为动态参数,会在后面的代码中指定该参数的值。

4.将定义好的workflow.xml文件上传至HDFS的

/user/faysontest/oozie/shellaction目录下

[root@ip-172-31-16-68 ~]# klist
[root@ip-172-31-16-68 ~]# hadoop fs -mkdir -p /user/fayson/oozie/shellaction
[root@ip-172-31-16-68 ~]# hadoop fs -put workflow.xml /user/fayson/oozie/shellaction
[root@ip-172-31-16-68 ~]# hadoop fs -ls /user/fayson/oozie/shellaction

(可左右滑动)

5.准备JAAS文件oozie-login.conf,内容如下

com.sun.security.jgss.initiate {
    com.sun.security.auth.module.Krb5LoginModule required
    storeKey=true
    useKeyTab=true
    debug=true
    keyTab="/Volumes/Transcend/keytab/fayson.keytab"
    principal="fayson@FAYSON.COM";
};

(可左右滑动)

3.创建Maven示例工程


1.使用Maven创建Java工程

2.工程pom.xml文件内容如下

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <parent>
        <artifactId>cdh-project</artifactId>
        <groupId>com.cloudera</groupId>
        <version>1.0-SNAPSHOT</version>
    </parent>
    <modelVersion>4.0.0</modelVersion>
    <artifactId>oozie-demo</artifactId>
    <packaging>jar</packaging>
    <name>oozie-demo</name>
    <url>http://maven.apache.org</url>
    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.apache.httpcomponents</groupId>
            <artifactId>httpclient</artifactId>
            <version>4.5.4</version>
        </dependency>
        <dependency>
            <groupId>net.sourceforge.spnego</groupId>
            <artifactId>spnego</artifactId>
            <version>7.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.oozie</groupId>
            <artifactId>oozie-client</artifactId>
            <version>4.1.0</version>
        </dependency>
    </dependencies>
</project>

(可左右滑动)

4.编写Oozie示例代码


1.编写ShellWorkflowDemo.java,示例代码如下

package com.cloudera.kerberos;
import org.apache.oozie.client.AuthOozieClient;
import org.apache.oozie.client.WorkflowAction;
import org.apache.oozie.client.WorkflowJob;
import java.util.List;
import java.util.Properties;
/**
 * package: com.cloudera.kerberos
 * describe: 使用Oozie-client的API接口向Kerberos集群提交Shell Action作业
 * creat_user: Fayson
 * email: htechinfo@163.com
 * creat_date: 2018/3/15
 * creat_time: 下午11:10
 * 公众号:Hadoop实操
 */
public class ShellWorkflowDemo {
    private static String oozieURL = "http://ip-172-31-16-68.ap-southeast-1.compute.internal:11000/oozie";
    public static void main(String[] args) {
        System.setProperty("java.security.krb5.conf", "/Volumes/Transcend/keytab/krb5.conf");
        System.setProperty("javax.security.auth.useSubjectCredsOnly", "false");
        System.setProperty("ssun.security.jgss.debug", "true"); //Kerberos Debug模式
        System.setProperty("java.security.auth.login.config", "/Volumes/Transcend/keytab/oozie-login.conf");
        AuthOozieClient oozieClient = new AuthOozieClient(oozieURL, AuthOozieClient.AuthType.KERBEROS.name());
        oozieClient.setDebugMode(1);
        try {
            Properties properties = oozieClient.createConfiguration();
            properties.put("oozie.wf.application.path", "${nameNode}/user/fayson/oozie/shellaction");
            properties.put("oozie.use.system.libpath", "True");
            properties.put("nameNode", "hdfs://nameservice1");
            properties.put("jobTracker", "ip-172-31-16-68.ap-southeast-1.compute.internal:8032");
            properties.put("exec", "lib/ooziejob.sh");
            properties.put("argument", "fayson");
            //运行workflow
            String jobid = oozieClient.run(properties);
            System.out.println(jobid);
            //等待10s
            new Thread(){
                public void run() {
                    try {
                        Thread.sleep(10000l);
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }
                }
            }.start();
            //根据workflow id获取作业运行情况
            WorkflowJob workflowJob = oozieClient.getJobInfo(jobid);
            //获取作业日志
            System.out.println(oozieClient.getJobLog(jobid));
            //获取workflow中所有ACTION
            List<WorkflowAction> list = workflowJob.getActions();
            for (WorkflowAction action : list) {
                //输出每个Action的 Appid 即Yarn的Application ID
                System.out.println(action.getExternalId());
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

(可左右滑动)

5.示例运行及验证


1.运行JavaWorkflowDemo代码,向CDH集群提交Shell作业

返回的Jobid为

2.登录CM进入Yarn服务的“应用程序”菜单查看

3.打开Yarn的8088 Web界面查看

点击执行成功的Map查看作业是在那个节点运行

4.登录ip-172-31-21-83节点查看Shell脚本执行结果

可以看到作业已运行成功,到此已完成了通过OozieAPI接口创建workflow并运行的示例演示。

6.总结


  • 通过Oozie API提交作业,需要先定义好workflow.xml文件
  • 参数传递通过在代码里面调用oozieClient.createConfiguration()创建一个Properties对象将K,V值存储并传入oozieClient.run(properties)中。
  • 在指定Shell脚本时需要注意,shell脚本必须放在workflow.xml文件同级的lib目录下,并且在代码中不能指定完整的HDFS路径,只需要指定相对路径即可properties.put("exec", "lib/ooziejob.sh");

相关Oozie API向集群提交作业文章:

《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Spark作业》

《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Java作业》

《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Shell工作流》

《如何使用Oozie API接口向Kerberos环境的CDH集群提交Spark作业》

《如何使用Oozie API接口向Kerberos环境的CDH集群提交Spark2作业》

《如何使用Oozie API接口向Kerberos集群提交Java程序》

GitHub地址:

https://github.com/fayson/cdhproject/blob/master/ooziedemo/src/main/java/com/cloudera/kerberos/ShellWorkflowDemo.java

https://github.com/fayson/cdhproject/blob/master/ooziedemo/conf/workflow-shell-template.xml

提示:代码块部分可以左右滑动查看噢 为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。

推荐关注Hadoop实操,第一时间,分享更多Hadoop干货,欢迎转发和分享。

原创文章,欢迎转载,转载请注明:转载自微信公众号Hadoop实操

原文发布于微信公众号 - Hadoop实操(gh_c4c535955d0f)

原文发表时间:2018-03-15

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏Hadoop实操

如何使用Oozie API接口向Kerberos环境的CDH集群提交Spark作业

在CDH集群外的节点向集群提交Spark作业的方式有多种,前面Fayson介绍了Livy相关的文章主要描述如何在集群外节点通过RESTful API接口向CDH...

47470
来自专栏个人分享

SparkSQL项目中的应用

Spark是一个通用的大规模数据快速处理引擎。可以简单理解为Spark就是一个大数据分布式处理框架。基于内存计算的Spark的计算速度要比Hadoop的MapR...

14330
来自专栏Hadoop实操

如何使用Oozie API接口向非Kerberos环境的CDH集群提交Spark作业

在CDH集群外的节点向集群提交Spark作业的方式有多种,前面Fayson介绍了Livy相关的文章主要描述如何在集群外节点通过RESTful API接口向CDH...

35570
来自专栏Spark学习技巧

必会:关于SparkStreaming checkpoint那些事儿

spark Streaming的checkpoint是一个利器,帮助在driver端非代码逻辑错误导致的driver应用失败重启,比如网络,jvm等,当然也仅限...

14720
来自专栏Hadoop实操

如何使用Oozie API接口向非Kerberos环境的CDH集群提交Shell工作流

前面Fayson介绍了《如何使用Oozie API接口向非Kerberos环境的CDH集群提交Spark作业》和《如何使用Oozie API接口向非Kerber...

34770
来自专栏Hadoop实操

如何使用CDSW在CDH中分布式运行所有R代码

无需额外花费过多的学习成本,sparklyr(https://spark.rstudio.com)可以让R用户很方便的利用Apache Spark的分布式计算能...

54160
来自专栏美图数据技术团队

快速、安全、可靠!Yarn!| MTdata小讲堂

Yarn 的全称是 Yet Anther Resource Negotiator(另一种资源协商者)。它作为 Hadoop 的一个组件,官方对它的定义是一个工作...

14620
来自专栏Hadoop实操

如何在Hue中添加Spark Notebook

CDH集群中可以使用Hue访问Hive、Impala、HBase、Solr等,在Hue3.8版本后也提供了Notebook组件(支持R、Scala及python...

80330
来自专栏深度学习之tensorflow实战篇

hive数据:名词解释

问题导读 1.hive数据分为那两种类型? 2.什么表数据? 3.什么是元数据? 4.Hive表里面导入数据的本质什么? 5.表、分区、桶之间之间的关系是什么?...

43870
来自专栏Hadoop实操

如何使用Cloudera Manager在线为集群减容

在Hadoop集群资源紧张的情况下可以在线扩容来提升集群的计算能力,具体参考Fayson前面的文章《如何在非Kerberos环境下对CDH进行扩容》,那么在集群...

1.4K70

扫码关注云+社区

领取腾讯云代金券