batch批处理 更多内容
  • BATCH规范

    BATCH规范 规则1:不支持logged batch,仅支持unlogged batch。 规则2:一个batch中,操作不超过25行数据。 规则3:一个batch中,请求大小不超过5KB。 规则4:一个batch中,跨partition不超过10个,只操作一张表。 父主题: 数据库规范

    来自:帮助中心

    查看更多 →

  • AOS.Batch

    AOS.Batch 模型说明 Batch是一个批处理对象,用于批量创建执行任务、部署等。Batch通过定义包含的子对象及批处理的次数来实现其批量化处理的功能。在所有包含对象的批量化处理操作都执行完成后,Batch才会判定为执行成功。目前Batch支持包含的子对象有CCE.Job、CCE

    来自:帮助中心

    查看更多 →

  • 查询作业列表

    String 项目编号,获取方法请参见项目ID和账号ID。 jobType 否 String 作业类型: REAL_TIME:实时处理 BATCH:批处理 默认值:BATCH offset 否 Integer 分页列表的页数,默认值为0。取值范围大于等于0。 limit 否 Integer

    来自:帮助中心

    查看更多 →

  • 查询批处理作业状态

    项目编号,用于资源隔离。获取方式请参考获取项目ID。 batch_id 是 批处理作业的ID。 请求消息 无请求参数。 响应消息 表2 响应参数说明 参数名称 是否必选 参数类型 说明 id 否 String 批处理作业的ID,采用UUID(通用唯一识别码)格式。 state 否 String 批处理作业的状态,请参见创建批处理作业中的表7。

    来自:帮助中心

    查看更多 →

  • 创建批处理作业

    String 批处理作业的ID。 appId 否 String 批处理作业的后台app ID。 name 否 String 创建时用户指定的批处理名称,不能超过128个字符。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。

    来自:帮助中心

    查看更多 →

  • 取消批处理作业

    取消批处理作业 功能介绍 该API用于取消批处理作业。 作业状态为“已成功”或者“已失败”的批处理作业无法取消。 调试 您可以在 API Explorer 中调试该接口。 URI URI格式: DELETE /v2.0/{project_id}/batches/{batch_id} 参数说明

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    client, batch_queue_name, batch_job_info): try: batch_job = dli_client.submit_spark_batch_job(batch_queue_name, batch_job_info)

    来自:帮助中心

    查看更多 →

  • 查询批处理作业详情

    String 批处理作业名称。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。 state 否 String 批处理作业的状态,请参见创建批处理作业中的表7。 kind 否 String 批处理作业类型,只支持spark类型参数。

    来自:帮助中心

    查看更多 →

  • 角色批处理(API名称:batchRole)

    角色批处理(API名称:batchRole) 功能介绍 通过此服务,批量添加、修改、删除角色(一次请求只能进行一种操作, 有错误数据直接跳过) 相关接口 接口名称 调用说明 获取Token 调用该接口获取到Token,再调用其他接口时,需要在请求消息头中添加“Authorization”,其值即为Token。

    来自:帮助中心

    查看更多 →

  • 查询APIGroup /apis/batch

    查询APIGroup /apis/batch 功能介绍 查询APIGroup /apis/batch 调用方法 请参见如何调用API。 URI GET /apis/batch 请求参数 表1 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String

    来自:帮助中心

    查看更多 →

  • 查询批处理作业日志(废弃)

    查询批处理作业日志(废弃) 功能介绍 该API用于查询批处理作业的后台日志。 当前接口已废弃,不推荐使用。 调试 您可以在API Explorer中调试该接口。 URI URI格式: GET /v2.0/{project_id}/batches/{batch_id}/log 参数说明

    来自:帮助中心

    查看更多 →

  • 开发批处理单任务SQL作业

    enabled(启用AQE,使Spark能够根据正在处理的数据的特征动态优化查询的执行计划,可以通过减少需要处理的数据量来提高性能。) spark.sql.adaptive.join.enabled(启用AQE用于连接操作,可以通过根据正在处理的数据动态选择最佳连接算法来提高性能。) spark

    来自:帮助中心

    查看更多 →

  • Spark批处理相关API(废弃)

    Spark批处理相关API(废弃) 查询批处理作业日志(废弃) 父主题: 历史API

    来自:帮助中心

    查看更多 →

  • 查询所有batch/v1的API

    查询所有batch/v1的API 功能介绍 get available resources 调用方法 请参见如何调用API。 URI GET /apis/batch/v1 请求参数 表1 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String

    来自:帮助中心

    查看更多 →

  • 使用Hue提交提交Bundle批处理作业

    使用Hue提交提交Bundle批处理作业 操作场景 当同时存在多个定时任务的情况下,用户可以通过Bundle任务进行批量管理作业。该任务指导用户通过Hue界面提交批量类型的作业。 前提条件 提交Bundle批处理之前需要提前配置好相关的Workflow和Coordinator作业。

    来自:帮助中心

    查看更多 →

  • 查询批处理作业列表

    String 批处理作业所在队列。 create_time 否 Long 批处理作业的创建时间。是单位为“毫秒”的时间戳。 name 否 String 批处理作业名称。 owner 否 String 批处理作业所属用户。 proxyUser 否 String 批处理作业所属代理用户(资源租户)。

    来自:帮助中心

    查看更多 →

  • 使用Hue提交Bundle批处理作业

    使用Hue提交Bundle批处理作业 操作场景 当同时存在多个定时任务的情况下,用户可以通过Bundle任务进行批量管理作业。该任务指导用户通过Hue界面提交批量类型的作业。 前提条件 提交Bundle批处理之前需要提前配置好相关的Workflow和Coordinator作业。 操作步骤

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    Cluster为用户自建的队列。 传参不能为JSON格式。 对应批处理作业提交提供两个接口: 异步 asyncSubmit,提交后直接返回,不等待 同步 submit,提交后会一直等待作业执行结束 删除批处理作业 DLI 提供删除批处理作业的接口。您可以使用该接口删除批处理作业。示例代码如下: 1 2 3 4

    来自:帮助中心

    查看更多 →

  • 查询作业实例列表

    否 int 作业实例版本。 请求示例 查询批处理作业job_batch的实例列表 GET /v1/b384b9e9ab9b4ee8994c8633aabc9505/jobs/instances/detail?jobName=job_batch 响应示例 成功响应 { "total":

    来自:帮助中心

    查看更多 →

  • 查询指定作业的实例列表

    version 否 int 作业实例版本。 请求示例 查询批处理作业job_batch的实例列表 GET /v2/b384b9e9ab9b4ee8994c8633aabc9505/factory/jobs/job_batch/instances/detail 响应示例 成功响应 HTTP状态码

    来自:帮助中心

    查看更多 →

  • DLI SDK与API的对应关系

    es/{batch_id} 查询所有批处理作业 listAllBatchJobs - GET /v2.0/{project_id}/batches 查询批处理作业详情 - - GET /v2.0/{project_id}/batches/{batch_id} 查询批处理作业状态 getStateBatchJob

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了