数据湖工厂 DLF
数据湖工厂 DLF
- 最新动态
- 产品介绍
-
用户指南
- 环境准备
- IAM权限管理
- 数据管理
- 数据集成
- 数据开发
- 解决方案
- 运维调度
- 配置管理
- 配置
- 使用教程
-
参考
-
节点
- 节点概述
- CDM Job
- DIS Stream
- DIS Dump
- DIS Client
- Rest Client
- Import GES
- MRS Kafka
- Kafka Client
- CS Job
- DLI SQL
- DLI Spark
- DWS SQL
- MRS SparkSQL
- MRS Hive SQL
- MRS Presto SQL
- MRS Spark
- MRS Spark Python
- MRS Flink Job
- MRS MapReduce
- CSS
- Shell
- RDS SQL
- ETL Job
- OCR
- Create OBS
- Delete OBS
- OBS Manager
- Open/Close Resource
- Data Quality Monitor
- Sub Job
- SMN
- Dummy
- For Each
- 表达式
-
节点
- 修订记录
- API参考
- 常见问题
- 产品术语
- 通用参考
链接复制成功!
MRS Flink Job
功能
通过MRS Flink节点实现在MRS中执行预先定义的Flink作业。
参数
参数 |
是否必选 |
说明 |
---|---|---|
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
MRS集群名 |
是 |
选择MRS集群。
如需新建集群,请参考以下方法:
|
Flink作业名称 |
是 |
MRS作业名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。 |
Flink作业资源包 |
是 |
选择Jar包。在选择Jar包之前,您需要先将Jar包上传至OBS桶中,并在“资源管理”页面中新建资源将Jar包添加到资源管理列表中,具体操作请参考新建资源。 |
Flink作业执行参数 |
否 |
Flink作业执行的程序关键参数,该参数由用户程序内的函数指定。多个参数间使用空格隔开。 |
运行程序参数 |
否 |
为本次执行的作业配置相关优化参数(例如线程、内存、CPU核数等),用于优化资源使用效率,提升作业的执行性能。 若集群为MRS 1.8.7版本或MRS 2.0.1之后版本,需要配置此参数。 MRS Spark作业的运行程序参数,请参见《MapReduce用户指南》中的运行Spark作业。 |
输入数据路径 |
否 |
选择输入数据所在的路径。 |
输出数据路径 |
否 |
选择输出数据存储的路径。 |
父主题: 节点