有奖捉虫:办公协同&微信生态&物联网文档专题 HOT

1. 接口描述

接口请求域名: dlc.tencentcloudapi.com 。

查询spark作业信息

默认接口请求频率限制:20次/秒。

推荐使用 API Explorer
点击调试
API Explorer 提供了在线调用、签名验证、SDK 代码生成和快速检索接口等能力。您可查看每次调用的请求内容和返回结果以及自动生成 SDK 调用示例。

2. 输入参数

以下请求参数列表仅列出了接口请求参数和部分公共参数,完整公共参数列表见 公共请求参数

参数名称 必选 类型 描述
Action String 公共参数,本接口取值:DescribeSparkAppJob。
Version String 公共参数,本接口取值:2021-01-25。
Region String 公共参数,详见产品支持的 地域列表
JobId String spark作业Id,与JobName同时存在时,JobName无效,JobId与JobName至少存在一个
示例值:batch_133e005d-6486-4517-8ea7-b6b97b183a6b
JobName String spark作业名
示例值:spark_app

3. 输出参数

参数名称 类型 描述
Job SparkJobInfo spark作业详情
注意:此字段可能返回 null,表示取不到有效值。
IsExists Boolean 查询的spark作业是否存在
示例值:true
RequestId String 唯一请求 ID,由服务端生成,每次请求都会返回(若请求因其他原因未能抵达服务端,则该次请求不会获得 RequestId)。定位问题时需要提供该次请求的 RequestId。

4. 示例

示例1 查询spark作业信息

查询spark作业信息

输入示例

POST / HTTP/1.1
Host: dlc.tencentcloudapi.com
Content-Type: application/json
X-TC-Action:DescribeSparkAppJob
<公共请求参数>

{
    "JobId": "batch_133e005d-6486-4517-8ea7-b6b97b183a6b",
    "JobName": "spark_app"
}

输出示例

{
    "Response": {
        "Job": {
            "JobId": "batch_e6c5ae75-fb02-4831-a5b8-88999d09003c",
            "JobName": "abc",
            "JobType": 1,
            "DataEngine": "testjar3",
            "Eni": "testeni2",
            "IsLocal": "cos",
            "JobFile": "cosn://danierwei-test-1305424723/sparkjar/spark-ckafka-1.0-SNAPSHOT.jar",
            "RoleArn": 3,
            "MainClass": "org.apache.spark.examples.SparkPi",
            "CmdArgs": "testArgs",
            "JobConf": "",
            "IsLocalJars": "abc",
            "JobJars": "lakefs://4000002928ef2638d7ab6aabb088bd51b7db914729a5c43b13a998ffa9750511f511d0ab@dlcda57-100018379117-1636704841-100017307912-1304028854/1305424723/.system/sparkAppJar/20220513/dd3c6ad3-a746-40d8-806c-fa8b15b5e9f9/spark-examples_2.12-3.1.2.jar",
            "IsLocalFiles": "lakefs",
            "JobFiles": "",
            "JobDriverSize": "small",
            "JobExecutorSize": "small",
            "JobExecutorNums": 1,
            "JobMaxAttempts": 1,
            "JobCreator": "admin",
            "JobCreateTime": 1652769991248,
            "JobUpdateTime": 1652769991248,
            "CurrentTaskId": "2aedsa7a-9ds2-44ds-9fdd-65cbds9d6301",
            "JobStatus": 1,
            "StreamingStat": {
                "StartTime": "2022-01-01 12:12:12",
                "Receivers": 0,
                "NumActiveReceivers": 0,
                "NumInactiveReceivers": 0,
                "NumActiveBatches": 0,
                "NumRetainedCompletedBatches": 0,
                "NumTotalCompletedBatches": 0,
                "AverageInputRate": 0,
                "AverageSchedulingDelay": 0,
                "AverageProcessingTime": 0,
                "AverageTotalDelay": 0
            },
            "DataSource": "DataLakeCatalog",
            "IsLocalPythonFiles": "cos",
            "AppPythonFiles": "cosn://xxx",
            "IsLocalArchives": "cos",
            "JobArchives": "cosn://xxx",
            "SparkImage": "Spark3.2",
            "JobPythonFiles": "cos",
            "TaskNum": 1,
            "DataEngineStatus": 0,
            "JobExecutorMaxNumbers": 1,
            "SparkImageVersion": "abc",
            "SessionId": "xxssd-dsakjj-dkslk-doeks",
            "DataEngineClusterType": "abc",
            "DataEngineImageVersion": "abc",
            "IsInherit": 1,
            "IsSessionStarted": true
        },
        "IsExists": true,
        "RequestId": "2ae4707a-9f72-44aa-9fd4-65cb739d6301"
    }
}

5. 开发者资源

腾讯云 API 平台

腾讯云 API 平台 是综合 API 文档、错误码、API Explorer 及 SDK 等资源的统一查询平台,方便您从同一入口查询及使用腾讯云提供的所有 API 服务。

API Inspector

用户可通过 API Inspector 查看控制台每一步操作关联的 API 调用情况,并自动生成各语言版本的 API 代码,也可前往 API Explorer 进行在线调试。

SDK

云 API 3.0 提供了配套的开发工具集(SDK),支持多种编程语言,能更方便的调用 API。

命令行工具

6. 错误码

以下仅列出了接口业务逻辑相关的错误码,其他错误码详见 公共错误码

错误码 描述
InternalError 内部错误。
InternalError.InternalSystemException 业务系统异常,请重试或提工单联系我们。
InvalidParameter 参数错误。
InvalidParameter.InvalidSparkAppParam SparkAppParam无效。
InvalidParameter.ParameterNotFoundOrBeNone 找不到参数或参数为空
InvalidParameter.SparkJobNotFound 指定的Spark任务不存在
InvalidParameter.SparkJobNotUnique 指定的Spark任务已存在