文档首页/ 数据湖探索 DLI/ API参考/ Spark作业相关API/ 取消批处理作业 - CancelSparkJob
更新时间:2025-10-28 GMT+08:00
分享

取消批处理作业 - CancelSparkJob

功能介绍

该API用于取消批处理作业。

作业状态为“已成功”或者“已失败”的批处理作业无法取消。

调试

您可以在API Explorer中调试该接口。

授权信息

账号具备所有API的调用权限,如果使用账号下的IAM用户调用当前API,该IAM用户需具备调用API所需的权限。

  • 如果使用角色与策略授权,具体权限要求请参见权限及授权项说明
  • 如果使用身份策略授权,需具备如下身份策略权限。

    授权项

    Action

    访问级别

    Access Level

    资源类型(*为必须)

    Resource Type (*: required)

    条件键

    Condition Key

    别名

    Alias

    依赖的授权项

    Dependencies

    dli:queue:cancelJob

    write

    queue *

    -

    -

URI

  • URI格式:

    DELETE /v2.0/{project_id}/batches/{batch_id}

  • 参数说明
    表1 URI参数

    参数名称

    是否必选

    参数类型

    说明

    project_id

    String

    项目编号,用于资源隔离。获取方式请参考获取项目ID

    batch_id

    String

    批处理作业的ID。具体为创建批处理作业 - CreateSparkJob中获取的作业ID。

请求消息

无请求参数。

响应消息

表2 响应参数

参数名称

是否必选

参数类型

说明

msg

String

取消成功,返回“deleted”。

请求示例

响应示例

{
    "msg": "deleted"
}

状态码

状态码如表3所示。

表3 状态码

状态码

描述

200

删除成功。

400

请求错误。

500

内部服务器错误。

错误码

调用接口出错后,将不会返回上述结果,而是返回错误码和错误信息,更多介绍请参见错误码

相关文档