批处理执行命令 更多内容
  • 创建批处理作业

    String 批处理作业的ID。 appId 否 String 批处理作业的后台app ID。 name 否 String 创建时用户指定的批处理名称,不能超过128个字符。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。

    来自:帮助中心

    查看更多 →

  • 取消批处理作业

    取消批处理作业 功能介绍 该API用于取消批处理作业。 作业状态为“已成功”或者“已失败”的批处理作业无法取消。 调试 您可以在 API Explorer 中调试该接口。 URI URI格式: DELETE /v2.0/{project_id}/batches/{batch_id} 参数说明

    来自:帮助中心

    查看更多 →

  • 查询批处理作业状态

    batch_id 是 批处理作业的ID。 请求消息 无请求参数。 响应消息 表2 响应参数说明 参数名称 是否必选 参数类型 说明 id 否 String 批处理作业的ID,采用UUID(通用唯一识别码)格式。 state 否 String 批处理作业的状态,请参见创建批处理作业中的表7。

    来自:帮助中心

    查看更多 →

  • 角色批处理(API名称:batchRole)

    角色批处理(API名称:batchRole) 功能介绍 通过此服务,批量添加、修改、删除角色(一次请求只能进行一种操作, 有错误数据直接跳过) 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。

    来自:帮助中心

    查看更多 →

  • 进入容器执行命令

    进入容器执行命令 功能介绍 进入容器执行命令。 调用方法 请参见如何调用API。 URI GET /api/v1/namespaces/{namespace}/pods/{name}/exec 表1 路径参数 参数 是否必选 参数类型 描述 name 是 String name of

    来自:帮助中心

    查看更多 →

  • 进入容器执行命令

    进入容器执行命令 功能介绍 进入容器执行命令。 调用方法 请参见如何调用API。 URI POST /api/v1/namespaces/{namespace}/pods/{name}/exec 表1 路径参数 参数 是否必选 参数类型 描述 name 是 String name

    来自:帮助中心

    查看更多 →

  • 查询批处理作业详情

    owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。 state 否 String 批处理作业的状态,请参见创建批处理作业中的表7。 kind 否 String 批处理作业类型,只支持spark类型参数。 log

    来自:帮助中心

    查看更多 →

  • 开发批处理单任务SQL作业

    开发批处理单任务SQL作业 对已新建的作业进行开发和配置。 开发单任务模式的批处理作业,请您参考开发SQL脚本、配置作业参数、质量监控、数据表、调测并保存作业和下载或转储脚本执行结果章节。 前提条件 已创建作业,详情请参见新建作业。 当前用户已锁定该作业,否则需要通过“抢锁”锁定

    来自:帮助中心

    查看更多 →

  • 查询批处理作业日志(废弃)

    查询批处理作业日志(废弃) 功能介绍 该API用于查询批处理作业的后台日志。 当前接口已废弃,不推荐使用。 调试 您可以在API Explorer中调试该接口。 URI URI格式: GET /v2.0/{project_id}/batches/{batch_id}/log 参数说明

    来自:帮助中心

    查看更多 →

  • Spark批处理相关API(废弃)

    Spark批处理相关API(废弃) 查询批处理作业日志(废弃) 父主题: 历史API

    来自:帮助中心

    查看更多 →

  • 使用Hue提交提交Bundle批处理作业

    使用Hue提交提交Bundle批处理作业 操作场景 当同时存在多个定时任务的情况下,用户可以通过Bundle任务进行批量管理作业。该任务指导用户通过Hue界面提交批量类型的作业。 前提条件 提交Bundle批处理之前需要提前配置好相关的Workflow和Coordinator作业。

    来自:帮助中心

    查看更多 →

  • 查询批处理作业列表

    String 批处理作业所在队列。 create_time 否 Long 批处理作业的创建时间。是单位为“毫秒”的时间戳。 name 否 String 批处理作业名称。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。

    来自:帮助中心

    查看更多 →

  • 使用Hue提交Bundle批处理作业

    使用Hue提交Bundle批处理作业 操作场景 当同时存在多个定时任务的情况下,用户可以通过Bundle任务进行批量管理作业。该任务指导用户通过Hue界面提交批量类型的作业。 前提条件 提交Bundle批处理之前需要提前配置好相关的Workflow和Coordinator作业。 操作步骤

    来自:帮助中心

    查看更多 →

  • 将obsutil设为系统内置命令

    bat文件。 检验是否配置成功:在cmd窗口中执行命令obsutil help,出现工具帮助信息则表示配置成功。 如果使用脚本自动配置完成后,执行命令obsutil help出现“'obsutil' 不是内部或外部命令,也不是可运行的程序或批处理文件”,则表明配置失败,请尝试手动配置方式。

    来自:帮助中心

    查看更多 →

  • Flink客户端执行命令报错“Could not connect to the leading JobManager”

    Flink客户端执行命令报错“Could not connect to the leading JobManager” 问题背景与现象 创建Fllink集群,执行yarn-session.sh命令卡住一段时间后报错: 2018-09-20 22:51:16,842 | WARN

    来自:帮助中心

    查看更多 →

  • Spark作业相关API

    Spark作业相关API 创建批处理作业 查询批处理作业列表 查询批处理作业详情 查询批处理作业状态 取消批处理作业

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    Spark作业相关 完整样例代码和依赖包说明请参考:Python SDK概述。 提交批处理作业 DLI 提供执行批处理作业的接口。您可以使用该接口执行批处理作业。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    Cluster为用户自建的队列。 传参不能为JSON格式。 对应批处理作业提交提供两个接口: 异步 asyncSubmit,提交后直接返回,不等待 同步 submit,提交后会一直等待作业执行结束 删除批处理作业 DLI提供删除批处理作业的接口。您可以使用该接口删除批处理作业。示例代码如下: 1 2 3 4

    来自:帮助中心

    查看更多 →

  • Linux实例执行命令或启动服务时出现错误:Cannot allocate memory

    Linux实例执行命令或启动服务时出现错误:Cannot allocate memory 问题描述 Linux操作系统的E CS 实例内存充足,但是在执行命令或启动服务时,出现错误提示“Cannot allocate memory”。 命令及执行结果如下: root@localhost:~#

    来自:帮助中心

    查看更多 →

  • 修改Kafka Topic配置

    日志的时间。 批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“批处理消息最大值”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。

    来自:帮助中心

    查看更多 →

  • 创建并提交Spark作业

    上传分组资源:上传Spark作业所需的资源包。 查询组内资源包:确认上传的资源包是否正确。 创建批处理作业:创建并提交Spark批处理作业。 查询批处理作业状态:查看批处理作业状态。 查询批处理作业日志:查看批处理作业日志。 操作步骤 创建通用队列。具体请参考创建队列。 上传分组资源。 接口相关信息

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了