数据湖工厂 DLF
数据湖工厂 DLF
- 最新动态
- 产品介绍
-
用户指南
- 环境准备
- IAM权限管理
- 数据管理
- 数据集成
- 数据开发
- 解决方案
- 运维调度
- 配置管理
- 配置
- 使用教程
-
参考
-
节点
- 节点概述
- CDM Job
- DIS Stream
- DIS Dump
- DIS Client
- Rest Client
- Import GES
- MRS Kafka
- Kafka Client
- CS Job
- DLI SQL
- DLI Spark
- DWS SQL
- MRS SparkSQL
- MRS Hive SQL
- MRS Presto SQL
- MRS Spark
- MRS Spark Python
- MRS Flink Job
- MRS MapReduce
- CSS
- Shell
- RDS SQL
- ETL Job
- OCR
- Create OBS
- Delete OBS
- OBS Manager
- Open/Close Resource
- Data Quality Monitor
- Sub Job
- SMN
- Dummy
- For Each
- 表达式
-
节点
- 修订记录
- API参考
- 常见问题
- 产品术语
- 通用参考
链接复制成功!
DLI Spark
功能
通过DLI Spark节点执行一个预先定义的Spark作业。
参数
参数 |
是否必选 |
说明 |
---|---|---|
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
DLI队列 |
是 |
下拉选择需要使用的队列。 |
作业名称 |
是 |
填写DLI Spark作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。 |
作业运行资源 |
否 |
选择作业运行的资源规格:
|
作业主类 |
是 |
填写Spark作业的主类,即Jar包的主类。 |
Spark程序资源包 |
是 |
用户自定义开发的Spark应用程序的Jar包。在选择资源包之前,您需要先将Jar包及其依赖包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考新建资源。 |
主类入口参数 |
否 |
填写程序的入口参数,参数之间使用Enter键分隔。 |
Spark作业运行参数 |
否 |
以“key/value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。具体参数请参见Spark Configuration。 |
Module名称 |
否 |
DLI系统提供的用于执行跨源作业的依赖模块,访问各个不同的服务,选择不同的模块:
|
参数 |
是否必选 |
说明 |
---|---|---|
节点状态轮询时间(秒) |
是 |
设置轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。 |
节点执行的最长时间 |
是 |
设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将不会再重试,直接置为失败状态。 |
失败重试 |
是 |
节点执行失败后,是否重新执行节点。
如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后将不会再重试,直接置为失败状态。 |
失败策略 |
是 |
节点执行失败后的操作:
|
父主题: 节点