文档首页 > > 用户指南> 参考> 节点> DLI Spark

DLI Spark

分享
更新时间:2020/08/12 GMT+08:00

功能

通过DLI Spark节点执行一个预先定义的Spark作业。

参数

用户可参考表1表2配置DLI Spark节点的参数。

表1 属性参数

参数

是否必选

说明

节点名称

节点名称,可以包含中文、英文字母、数字、“_”“-”“/”“<”“>”等各类特殊字符,长度为1~128个字符。

DLI队列

下拉选择需要使用的队列。

作业名称

填写DLI Spark作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。

作业运行资源

选择作业运行的资源规格:

  • 8核32G内存
  • 16核64G内存
  • 32核128G内存

作业主类

填写Spark作业的主类,即Jar包的主类。

Spark程序资源包

用户自定义开发的Spark应用程序的Jar包。在选择资源包之前,您需要先将Jar包及其依赖包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考新建资源

主类入口参数

填写程序的入口参数,参数之间使用Enter键分隔。

Spark作业运行参数

以“key/value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。具体参数请参见Spark Configuration

Module名称

DLI系统提供的用于执行跨源作业的依赖模块,访问各个不同的服务,选择不同的模块:

  • CloudTable/MRS HBase: sys.datasource.hbase
  • CloudTable/MRS OpenTSDB: sys.datasource.opentsdb
  • RDS MySQL: sys.datasource.rds
  • RDS PostGre: sys.datasource.rds
  • DWS: sys.datasource.dws
  • CSS: sys.datasource.css
表2 高级参数

参数

是否必选

说明

节点状态轮询时间(秒)

设置轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。

节点执行的最长时间

设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将不会再重试,直接置为失败状态。

失败重试

节点执行失败后,是否重新执行节点

  • 是:重新执行节点,请配置以下参数。
    • 最大重试次数
    • 重试间隔时间(秒)
  • 否:默认值,不重新执行节点
说明:

如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后将不会再重试,直接置为失败状态。

失败策略

节点执行失败后的操作:

  • 终止当前作业执行计划
  • 继续执行下一作业
  • 挂起当前作业执行计划
  • 终止当前以及后续节点执行计划
分享:

    相关文档

    相关产品

文档是否有解决您的问题?

提交成功!非常感谢您的反馈,我们会继续努力做到更好!
反馈提交失败,请稍后再试!

*必选

请至少选择或填写一项反馈信息

字符长度不能超过200

提交反馈 取消

如您有其它疑问,您也可以通过华为云社区问答频道来与我们联系探讨

智能客服提问云社区提问