更新时间:2024-11-29 GMT+08:00

查询作业列表信息

功能介绍

在MRS指定集群中查询作业列表信息。

URI

  • URI格式

    GET /v2/{project_id}/clusters/{cluster_id}/job-executions

  • 参数说明
    表1 URI参数说明

    名称

    是否必选

    参数类型

    说明

    project_id

    String

    参数解释:

    项目编号。获取方法,请参见获取项目ID

    约束限制:

    不涉及

    取值范围:

    只能由英文字母和数字组成,且长度为[1-64]个字符。

    默认取值:

    不涉及

    cluster_id

    String

    参数解释:

    集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID

    约束限制:

    不涉及

    取值范围:

    只能由英文字母、数字以及“_”和“-”组成,且长度为[1-64]个字符。

    默认取值:

    不涉及

    表2 Query参数

    参数名

    是否必选

    参数类型

    说明

    job_name

    String

    参数解释:

    作业名称。

    约束限制:

    不涉及

    取值范围:

    只能由英文字母、数字以及“_”和“-”组成,且长度为[1-128]个字符。

    默认取值:

    不涉及

    job_id

    String

    参数解释:

    作业ID。

    约束限制:

    不涉及

    取值范围:

    只能由英文字母、数字以及“-”组成,且长度为[1-64]个字符。

    默认取值:

    不涉及

    user

    String

    参数解释:

    用户名称。

    约束限制:

    不涉及

    取值范围:

    只能由英文字母、数字以及“-”、“_”和“.”组成,且不能以数字开头,且长度为[1-32]个字符。

    默认取值:

    不涉及

    job_type

    String

    参数解释:

    作业类型。

    约束限制:

    不涉及

    取值范围:

    • MapReduce
    • SparkSubmit
    • SparkSubmit:SparkPython类型的作业在查询时作业类型请选择SparkSubmit。
    • HiveScript
    • HiveSql
    • DistCp:导入、导出数据。
    • SparkScript
    • SparkSql
    • Flink

    默认取值:

    不涉及

    job_state

    String

    参数解释:

    作业运行状态。

    约束限制:

    不涉及

    取值范围:

    • FAILED:失败
    • KILLED:已终止
    • NEW:已创建
    • NEW_SAVING:已创建保存中
    • SUBMITTED:已提交
    • ACCEPTED:已接受
    • RUNNING:运行中
    • FINISHED:已完成

    默认取值:

    不涉及

    job_result

    String

    参数解释:

    作业运行结果。

    约束限制:

    不涉及

    取值范围:

    • FAILED:执行失败的作业。
    • KILLED:执行中被手动终止的作业。
    • UNDEFINED:正在执行的作业。
    • SUCCEEDED:执行成功的作业。

    默认取值:

    不涉及

    queue

    String

    参数解释:

    作业的资源队列类型名称。

    约束限制:

    不涉及

    取值范围:

    只能由英文字母、数字以及“-”和“_”组成,且长度为[1-64]个字符。

    默认取值:

    不涉及

    limit

    String

    参数解释:

    返回结果中每页显示条数。

    约束限制:

    不涉及

    取值范围:

    不涉及

    默认取值:

    10

    offset

    String

    参数解释:

    表示作业列表从该偏移量开始查询。

    约束限制:

    不涉及

    取值范围:

    不涉及

    默认取值:

    1

    sort_by

    String

    参数解释:

    返回结果的排序方式。

    约束限制:

    不涉及

    取值范围:

    • asc:按升序排列
    • desc:按降序排列

    默认取值:

    desc

    submitted_time_begin

    Long

    参数解释:

    查询该时间之后提交的作业,UTC的毫秒时间戳。例如:1562032041362。

    约束限制:

    不涉及

    取值范围:

    不涉及

    默认取值:

    不涉及

    submitted_time_end

    Long

    参数解释:

    查询该时间之前提交的作业UTC的毫秒时间戳。例如:1562032041362。

    约束限制:

    不涉及

    取值范围:

    不涉及

    默认取值:

    不涉及

请求参数

响应参数

状态码:202

表3 响应Body参数

参数名

参数类型

说明

total_record

Integer

参数解释:

总记录数。

取值范围:

不涉及

job_list

Array of JobQueryBean objects

参数解释:

作业列表,参数说明请参见表4

表4 JobQueryBean

参数名

参数类型

说明

job_id

String

参数解释:

作业ID。

取值范围:

不涉及

user

String

参数解释:

提交作业的用户名称。

取值范围:

不涉及

job_name

String

参数解释:

作业名称。

取值范围:

不涉及

job_result

String

参数解释:

作业最终结果。

取值范围:

  • FAILED:执行失败的作业。
  • KILLED:执行中被手动终止的作业。
  • UNDEFINED:正在执行的作业。
  • SUCCEEDED:执行成功的作业。

job_state

String

参数解释:

作业执行状态。

取值范围:

  • FAILED:失败
  • KILLED:已终止
  • NEW:已创建
  • NEW_SAVING:已创建保存中
  • SUBMITTED:已提交
  • ACCEPTED:已接受
  • RUNNING:运行中
  • FINISHED:已完成

job_progress

Float

参数解释:

作业执行进度。

取值范围:

不涉及

job_type

String

参数解释:

作业类型。

取值范围:

  • MapReduce
  • SparkSubmit:SparkPython类型的作业在查询时作业类型请选择SparkSubmit。
  • HiveScript
  • HiveSql
  • DistCp:导入、导出数据。
  • SparkScript
  • SparkSql
  • Flink

started_time

Long

参数解释:

作业开始执行时间。单位:毫秒。

取值范围:

不涉及

submitted_time

Long

参数解释:

作业提交时间。单位:毫秒。

取值范围:

不涉及

finished_time

Long

参数解释:

作业完成时间。单位:毫秒。

取值范围:

不涉及

elapsed_time

Long

参数解释:

作业执行时长。单位:毫秒。

取值范围:

不涉及

arguments

String

参数解释:

运行参数。

取值范围:

不涉及

properties

String

参数解释:

配置参数,用于传-d参数。

取值范围:

不涉及

launcher_id

String

参数解释:

实际作业编号。

取值范围:

不涉及

app_id

String

参数解释:

实际作业编号。

取值范围:

不涉及

tracking_url

String

参数解释:

日志链接地址。当前仅SparkSubmit作业支持该参数。该参数基于集群的EIP访问集群中的Yarn WebUI页面,用户如果在VPC界面解绑EIP,MRS服务侧数据会因为未更新导致该参数引用旧EIP导致访问失败,可通过对集群重新绑定EIP来修复该问题。

取值范围:

不涉及

queue

String

参数解释:

作业的资源队列类型。

取值范围:

不涉及

状态码:500

表5 响应Body参数

参数

参数类型

描述

error_code

String

参数解释:

错误码。

取值范围:

不涉及

error_msg

String

参数解释:

错误描述。

取值范围:

不涉及

响应示例

状态码:202

查询作业列表信息成功

{
  "total_record" : 2,
  "job_list" : [ {
    "job_id" : "981374c1-85da-44ee-be32-edfb4fba776c",
    "user" : "xxxx",
    "job_name" : "SparkSubmitTset",
    "job_result" : "UNDEFINED",
    "job_state" : "ACCEPTED",
    "job_progress" : 0,
    "job_type" : "SparkSubmit",
    "started_time" : 0,
    "submitted_time" : 1564714763119,
    "finished_time" : 0,
    "elapsed_time" : 0,
    "queue" : "default",
    "arguments" : "[--class, --driver-memory, --executor-cores, --master, yarn-cluster, s3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar, dddd]",
    "launcher_id" : "application_1564622673393_0613",
    "properties" : { }
  }, {
    "job_id" : "c54c8aa0-c277-4f83-8acc-521d85cfa32b",
    "user" : "xxxx",
    "job_name" : "SparkSubmitTset2",
    "job_result" : "UNDEFINED",
    "job_state" : "ACCEPTED",
    "job_progress" : 0,
    "job_type" : "SparkSubmit",
    "started_time" : 0,
    "submitted_time" : 1564714020099,
    "finished_time" : 0,
    "elapsed_time" : 0,
    "queue" : "default",
    "arguments" : "[--conf, yujjsjhe, --driver-memory, yueujdjjd, --master,\nyarn-cluster,\ns3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar]",
    "launcher_id" : "application_1564622673393_0611",
    "properties" : { }
  } ]
}

状态码:500

查询作业列表信息失败

{
  "error_msg" : "查询作业列表失败",
  "error_code" : "0166"
}

状态码

状态码请参见状态码

错误码

请参见错误码