数据湖探索 DLI数据湖探索 DLI

计算
弹性云服务器 ECS
裸金属服务器 BMS
云手机 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器 HECS
VR云渲游平台 CVR
特惠算力专区
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
弹性文件服务 SFS
存储容灾服务 SDRS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属企业存储服务
云存储网关 CSG
专属分布式存储服务 DSS
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘平台 IEF
人工智能
AI开发平台ModelArts
华为HiLens
图引擎服务 GES
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
医疗智能体 EIHealth
园区智能体 CampusGo
企业级AI应用开发专业套件 ModelArts Pro
人脸识别服务 FRS
对话机器人服务 CBS
视频分析服务 VAS
语音交互服务 SIS
知识图谱 KG
人证核身服务 IVS
IoT物联网
设备接入 IoTDA
设备管理 IoTDM(联通用户专用)
全球SIM联接 GSL
IoT开发者服务
IoT数据分析
车联网服务 IoV
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
开发与运维
软件开发平台 DevCloud
项目管理 ProjectMan
代码托管 CodeHub
流水线 CloudPipeline
代码检查 CodeCheck
编译构建 CloudBuild
部署 CloudDeploy
云测 CloudTest
发布 CloudRelease
移动应用测试 MobileAPPTest
CloudIDE
Classroom
开源镜像站 Mirrors
应用魔方 AppCube
云性能测试服务 CPTS
应用管理与运维平台 ServiceStage
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
资源管理服务 RMS
应用身份管理服务 OneAccess
专属云
专属计算集群 DCC
解决方案
高性能计算 HPC
SAP
游戏云
混合云灾备
价格
成本优化最佳实践
专属云商业逻辑
用户服务
帐号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
区块链
区块链服务 BCS
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
应用编排服务 AOS
多云容器平台 MCP
基因容器 GCS
容器洞察引擎 CIE
云原生服务中心 OSC
容器批量计算 BCE
容器交付流水线 ContainerOps
应用服务网格 ASM
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB (for openGauss)
云数据库 GaussDB(for MySQL)
云数据库 GaussDB NoSQL
数据管理服务 DAS
数据库和应用迁移 UGO
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
可信智能计算服务 TICS
推荐系统 RES
云搜索服务 CSS
数据可视化 DLV
数据湖治理中心 DGC
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
API网关 APIG
分布式缓存服务 DCS
分布式消息服务RocketMQ版
企业应用
域名注册服务 Domains
云解析服务 DNS
云速建站 CloudSite
网站备案
华为云WeLink
会议
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
边缘数据中心管理 EDCM
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMAExchange
API全生命周期管理 ROMA API
安全与合规
安全技术与应用
DDoS防护 ADS
Web应用防火墙 WAF
云防火墙 CFW
应用信任中心 ATC
企业主机安全 HSS
容器安全服务 CGS
云堡垒机 CBH
数据库安全服务 DBSS
数据加密服务 DEW
数据安全中心 DSC
云证书管理服务 CCM
SSL证书管理 SCM
漏洞扫描服务 VSS
态势感知 SA
威胁检测服务 MTD
管理检测与响应 MDR
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
智能协作
IdeaHub
开发者工具
SDK开发指南
API签名指南
DevStar
HCloud CLI
Terraform
Ansible
云生态
云市场
合作伙伴中心
华为云培训中心
其他
管理控制台
消息中心
产品价格详情
系统权限
我的凭证
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
更新时间:2021/09/13 GMT+08:00
分享

创建批处理作业

功能介绍

该API用于在某个队列上创建批处理作业。

调试

您可以在API Explorer中调试该接口。

URI

  • URI格式:

    POST /v2.0/{project_id}/batches

  • 参数说明
    表1 URI参数

    参数名称

    是否必选

    参数类型

    说明

    project_id

    String

    项目编号,用于资源隔离。获取方式请参考获取项目ID

请求消息

表2 请求参数

参数名称

是否必选

参数类型

说明

file

String

用户已上传到DLI资源管理系统的类型为jar或pyFile的程序包名。也支持指定OBS路径,例如:obs://桶名/包名。

class_name

String

批处理作业的Java/Spark主类。

queue

String

用于指定队列,填写已创建DLI的队列名。

说明:
  • 兼容“cluster_name”参数,即如果使用“cluster_name”指定队列仍然有效。
  • 推荐使用“queue”参数,“queue”参数与“cluster_name”参数两者不能同时存在。

cluster_name

String

用于指定队列,填写已创建DLI队列的队列名称。

说明:

推荐使用“queue”参数,“queue”参数与“cluster_name”参数两者不能同时存在。

args

Array of Strings

传入主类的参数,即应用程序参数。

sc_type

String

计算资源类型,目前可接受参数A, B, C。如果不指定,则按最小类型创建。具体资源类型请参见表3

jars

Array of Strings

用户已上传到DLI资源管理系统的类型为jar的程序包名。也支持指定OBS路径,例如:obs://桶名/包名。

python_files

Array of Strings

用户已上传到DLI资源管理系统的类型为pyFile的资源包名。也支持指定OBS路径,例如:obs://桶名/包名。

files

Array of Strings

用户已上传到DLI资源管理系统的类型为file的资源包名。也支持指定OBS路径,例如:obs://桶名/包名。

modules

Array of Strings

依赖的系统资源模块名,具体模块名可通过查询组内资源包接口查看。

DLI系统提供了用于执行跨源作业的依赖模块,各个不同的服务对应的模块列表如下:
  • CloudTable/MRS HBase: sys.datasource.hbase
  • CloudTable/MRS OpenTSDB: sys.datasource.opentsdb
  • RDS MySQL: sys.datasource.rds
  • RDS PostGre: 不需要选
  • DWS: 不需要选
  • CSS: sys.datasource.css

resources

Array of Objects

JSON对象列表,填写用户已上传到队列的类型为JSON的资源包名和类型。具体请见表4

groups

Array of Objects

JSON对象列表,填写用户组类型资源,格式详见请求示例。如果“resources”中的“name”未进行type校验,只要此分组中存在这个名字的包即可。具体请见表5

conf

Array of Objects

batch配置项,参考Spark Configuration

name

String

创建时用户指定的批处理名称,不能超过128个字符。

driver_memory

String

Spark应用的Driver内存,参数配置例如2G, 2048M。该配置项会替换“sc_type”中对应的默认参数,使用时必需带单位,否则会启动失败。

driver_cores

Integer

Spark应用Driver的CPU核数。该配置项会替换sc_type中对应的默认参数。

executor_memory

String

Spark应用的Executor内存,参数配置例如2G, 2048M。该配置项会替换“sc_type”中对应的默认参数,使用时必需带单位,否则会启动失败。

executor_cores

Integer

Spark应用每个Executor的CPU核数。该配置项会替换sc_type中对应的默认参数。

num_executors

Integer

Spark应用Executor的个数。该配置项会替换sc_type中对应的默认参数。

obs_bucket

String

保存Spark作业的obs桶,需要保存作业时配置该参数。

auto_recovery

Boolean

是否开启重试功能,如果开启,可在Spark作业异常失败后自动重试。默认值为“false”。

max_retry_times

Integer

最大重试次数。最大值为“100”,默认值为“20”。

feature

String

作业特性。表示用户作业使用的Spark镜像类型。

  • basic:表示使用DLI提供的基础Spark镜像。
  • custom:表示使用用户自定义的Spark镜像。
  • ai:表示使用DLI提供的AI镜像。

spark_version

String

作业使用spark组件的版本号,在“feature”为“basic”或“ai”时填写,若不填写,则使用默认的spark组件版本号2.3.2。

image

String

自定义镜像。格式为:组织名/镜像名:镜像版本。

当用户设置“feature”“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Spark镜像。关于如何使用自定义镜像,请参考《数据湖探索用户指南》。

catalog_name

String

访问元数据时,需要将该参数配置为dli。

表3 资源类型说明

资源类型

物理资源

driverCores

executorCores

driverMemory

executorMemory

numExecutor

A

8核32G内存

2

1

7G

4G

6

B

16核64G内存

2

2

7G

8G

7

C

32核128G内存

4

2

15G

8G

14

表4 resources参数说明

参数名称

是否必选

参数类型

说明

name

String

资源名称。也支持指定OBS路径,例如:obs://桶名/包名。

type

String

资源类型。

表5 groups参数说明

参数名称

是否必选

参数类型

说明

name

String

用户组名称。

resources

Array of Objects

用户组资源。具体请参考表4

响应消息

表6 响应参数

参数名称

是否必选

参数类型

说明

id

String

批处理作业的ID。

appId

Array of strings

批处理作业的后台app ID。

name

String

创建时用户指定的批处理名称,不能超过128个字符。

owner

String

批处理作业所属用户。

proxyUser

String

批处理作业所属代理用户(资源租户)。

state

String

批处理作业的状态,详细说明请参见表7

kind

String

批处理作业类型,只支持spark类型参数。

log

Array of strings

显示当前批处理作业的最后10条记录。

sc_type

String

计算资源类型。用户自定义时返回CUSTOMIZED。

cluster_name

String

批处理作业所在队列。

queue

String

用于指定队列,填写已创建DLI的队列名。

说明:
  • 兼容“cluster_name”参数,即如果使用“cluster_name”指定队列仍然有效。
  • 推荐使用“queue”参数,“queue”参数与“cluster_name”参数两者不能同时存在。

image

String

自定义镜像。格式为:组织名/镜像名:镜像版本。

当用户设置“feature”“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Spark镜像。关于如何使用自定义镜像,请参考《数据湖探索用户指南》。

create_time

Long

批处理作业的创建时间。是单位为“毫秒”的时间戳。

update_time

Long

批处理作业的更新时间。是单位为“毫秒”的时间戳。

表7 批处理作业状态说明

参数名称

参数类型

说明

starting

String

批处理作业正在启动。

running

String

批处理作业正在执行任务。

dead

String

批处理作业已退出。

success

String

批处理作业执行成功。

recovering

String

批处理作业正在恢复。

示例

  • 请求样例:
    {
        "file": "batchTest/spark-examples_2.11-2.1.0.luxor.jar",
        "class_name": "org.apache.spark.examples.SparkPi",
        "sc_type": "A",
        "jars": ["demo-1.0.0.jar"],
        "files": ["count.txt"],
        "resources":[
                       {"name": "groupTest/testJar.jar", "type": "jar"},
                       {"name": "kafka-clients-0.10.0.0.jar", "type": "jar"}],
        "groups": [
                       {"name": "groupTestJar", "resources": [{"name": "testJar.jar", "type": "jar"}, {"name": "testJar1.jar", "type": "jar"}]}, 
                       {"name": "batchTest", "resources":  [{"name": "luxor.jar", "type": "jar"}]}],
        "queue": " test",
        "name": "TestDemo4",
        "feature": "basic",
        "spark_version": "2.3.2"
    }

    其中“batchTest/spark-examples_2.11-2.1.0.luxor.jar”已提前通过上传分组资源接口上传。

  • 成功响应样例:
    {
      "id": "07a3e4e6-9a28-4e92-8d3f-9c538621a166",
      "appId": "",
      "name": "",
      "owner": "test1",
      "proxyUser": "",
      "state": "starting",
      "kind": "",
      "log": [],
      "sc_type": "CUSTOMIZED",
      "cluster_name": "aaa",
      "queue": "aaa",
      "image": "",
      "create_time": 1607589874156,
      "update_time": 1607589874156
    }

状态码

状态码如表8所示。

表8 状态码

状态码

描述

200

创建成功。

400

请求错误。

500

内部服务器错误。

错误码

调用接口出错后,将不会返回上述结果,而是返回错误码和错误信息,更多介绍请参见错误码

分享:

    相关文档

    相关产品