查询作业列表信息
功能介绍
在MRS指定集群中查询作业列表信息。
接口约束
无。
调试
您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。
URI
- URI格式
- 参数说明
表1 URI参数说明 名称
是否必选
参数类型
说明
project_id
是
String
项目编号。获取方法,请参见获取项目ID。
cluster_id
是
String
集群ID。获取方法,请参见获取集群ID。
表2 Query参数 参数名
是否必选
参数类型
说明
job_name
否
String
作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~128个字符。
job_id
否
String
作业ID,只能由字母、数字、中划线(-)组成,并且长度为1~64个字符。
user
否
String
用户名称,只能由字母、数字、特殊字符(-_.)组成,且不能以数字开头,并且长度为1~32个字符。
job_type
否
String
作业类型。
- MapReduce
- SparkSubmit
- SparkSubmit:SparkPython类型的作业在查询时作业类型请选择SparkSubmit。
- HiveScript
- HiveSql
- DistCp:导入、导出数据。
- SparkScript
- SparkSql
- Flink
job_state
否
String
作业运行状态。
- FAILED:失败
- KILLED:已终止
- NEW:已创建
- NEW_SAVING:已创建保存中
- SUBMITTED:已提交
- ACCEPTED:已接受
- RUNNING:运行中
- FINISHED:已完成
job_result
否
String
作业运行结果。
- FAILED:执行失败的作业。
- KILLED:执行中被手动终止的作业。
- UNDEFINED:正在执行的作业。
- SUCCEEDED:执行成功的作业。
queue
否
String
作业的资源队列类型名称,只能由数字、字母和特殊字符(-_)组成,并且长度为1~64个字符。
limit
否
String
返回结果中每页显示条数,默认值:10。
offset
否
String
表示作业列表从该偏移量开始查询,默认值:1。
sort_by
否
String
返回结果的排序方式,默认值为“desc”。
- asc:按升序排列
- desc:按降序排列
submitted_time_begin
否
Long
查询该时间之后提交的作业,UTC的毫秒时间戳。例如:1562032041362。
submitted_time_end
否
Long
查询该时间之前提交的作业UTC的毫秒时间戳。例如:1562032041362。
请求参数
无
响应参数
状态码:202
参数名 |
参数类型 |
说明 |
---|---|---|
total_record |
Integer |
总记录数 |
job_list |
Array of JobQueryBean objects |
作业列表,参数说明请参见表4。 |
参数名 |
参数类型 |
说明 |
---|---|---|
job_id |
String |
作业ID。 |
user |
String |
提交作业的用户名称。 |
job_name |
String |
作业名称。 |
job_result |
String |
作业最终结果。
|
job_state |
String |
作业执行状态。
|
job_progress |
Float |
作业执行进度。 |
job_type |
String |
作业类型。
|
started_time |
Long |
作业开始执行时间。单位:毫秒。 |
submitted_time |
Long |
作业提交时间。单位:毫秒。 |
finished_time |
Long |
作业完成时间。单位:毫秒。 |
elapsed_time |
Long |
作业执行时长。单位:毫秒。 |
arguments |
String |
运行参数。 |
properties |
String |
配置参数,用于传-d参数。最多为2048字符,不能包含><|'`&!\特殊字符,可为空。 |
launcher_id |
String |
实际作业编号。 |
app_id |
String |
实际作业编号。 |
tracking_url |
String |
日志链接地址。当前仅SparkSubmit作业支持该参数。该参数基于集群的EIP访问集群中的Yarn WebUI页面,用户如果在VPC界面解绑EIP,MRS服务侧数据会因为未更新导致该参数引用旧EIP导致访问失败,可通过对集群重新绑定EIP来修复该问题。 |
queue |
String |
作业的资源队列类型。 |
状态码:500
参数 |
参数类型 |
描述 |
---|---|---|
error_code |
String |
错误码 |
error_msg |
String |
错误描述 |
响应示例
状态码:202
查询作业列表信息成功
{ "total_record" : 2, "job_list" : [ { "job_id" : "981374c1-85da-44ee-be32-edfb4fba776c", "user" : "xxxx", "job_name" : "SparkSubmitTset", "job_result" : "UNDEFINED", "job_state" : "ACCEPTED", "job_progress" : 0, "job_type" : "SparkSubmit", "started_time" : 0, "submitted_time" : 1564714763119, "finished_time" : 0, "elapsed_time" : 0, "queue" : "default", "arguments" : "[--class, --driver-memory, --executor-cores, --master, yarn-cluster, s3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar, dddd]", "launcher_id" : "application_1564622673393_0613", "properties" : { } }, { "job_id" : "c54c8aa0-c277-4f83-8acc-521d85cfa32b", "user" : "xxxx", "job_name" : "SparkSubmitTset2", "job_result" : "UNDEFINED", "job_state" : "ACCEPTED", "job_progress" : 0, "job_type" : "SparkSubmit", "started_time" : 0, "submitted_time" : 1564714020099, "finished_time" : 0, "elapsed_time" : 0, "queue" : "default", "arguments" : "[--conf, yujjsjhe, --driver-memory, yueujdjjd, --master,\nyarn-cluster,\ns3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar]", "launcher_id" : "application_1564622673393_0611", "properties" : { } } ] }
状态码:500
查询作业列表信息失败
{ "error_msg" : "查询作业列表失败", "error_code" : "0166" }
状态码
状态码请参见状态码。
错误码
请参见错误码。