- 最新动态
- 产品介绍
-
用户指南
- 环境准备
- IAM权限管理
- 数据管理
- 数据集成
- 数据开发
- 解决方案
- 运维调度
- 配置管理
- 配置
- 使用教程
-
参考
-
节点
- 节点概述
- CDM Job
- DIS Stream
- DIS Dump
- DIS Client
- Rest Client
- Import GES
- MRS Kafka
- Kafka Client
- CS Job
- DLI SQL
- DLI Spark
- DWS SQL
- MRS SparkSQL
- MRS Hive SQL
- MRS Presto SQL
- MRS Spark
- MRS Spark Python
- MRS Flink Job
- MRS MapReduce
- CSS
- Shell
- RDS SQL
- ETL Job
- OCR
- Create OBS
- Delete OBS
- OBS Manager
- Open/Close Resource
- Data Quality Monitor
- Sub Job
- SMN
- Dummy
- For Each
- 表达式
-
节点
- 修订记录
- API参考
- 常见问题
- 产品术语
- 通用参考
链接复制成功!
CDM Job
功能
通过CDM Job节点执行一个预先定义的CDM作业,实现数据迁移功能。
参数
用户可参考表1,表2和表3配置CDM Job节点的参数。配置血缘关系用以标识数据流向,在数据资产模块中可以查看。
参数 |
是否必选 |
说明 |
---|---|---|
CDM集群名称 |
是 |
选择待执行的CDM作业所属的CDM集群。 |
CDM作业名称 |
是 |
选择待执行的CDM作业。 |
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
参数 |
是否必选 |
说明 |
---|---|---|
节点状态轮询时间(秒) |
是 |
设置轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。 |
节点执行的最长时间 |
是 |
设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将不会再重试,直接置为失败状态。 |
失败重试 |
是 |
节点执行失败后,是否重新执行节点。
如果作业节点配置了重试,并且配置了超时时间,该节点执行超时后将不会再重试,直接置为失败状态。 |
失败策略 |
是 |
节点执行失败后的操作:
|
参数 |
说明 |
---|---|
输入 |
|
新建 |
单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS和DLI类型。
|
确认 |
单击“确认”,保存节点输入功能的参数配置。 |
取消 |
单击“取消”,取消节点输入功能的参数配置。 |
编辑 |
单击 |
删除 |
单击 |
查看表详情 |
单击 |
输出 |
|
新建 |
单击“新建”,在“类型”的下拉选项中选择要新建的类型。可以选择DWS,OBS,CSS,DLI类型。
|
确认 |
单击“确认”,保存节点输出功能的参数配置。 |
取消 |
单击“取消”,取消节点输出功能的参数配置。 |
编辑 |
单击 |
删除 |
单击 |
查看表详情 |
单击 |