DLI Flink Job
功能
DLI Flink Job节点用于创建和启动作业,或者查询DLI作业是否正在运行,实现实时流式大数据分析。
DLI Flink流式作业提交到DLI之后,若处于运行中的状态,则认为节点执行成功。若作业配置了周期调度,则会周期检查该Flink作业是否依然处于运行中的状态,如果处于运行状态,则认为节点执行成功。
参数
DLI Flink Job的参数配置,请参考以下内容:
- 属性参数:
- 高级参数:表5
参数 |
是否必选 |
说明 |
---|---|---|
作业类型 |
是 |
选择“选择已存在的Flink作业”。 |
作业名称 |
是 |
选择一个已存在的DLI Flink作业。 |
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
参数 |
是否必选 |
说明 |
---|---|---|
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
作业类型 |
是 |
选择“Flink SQL作业”。用户采用编写SQL语句来启动作业。 |
作业名称 |
是 |
填写DLI Flink作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。 |
作业名称添加工作空间前缀 |
否 |
设置是否为创建的作业名称添加工作空间前缀。 |
脚本路径 |
是 |
|
脚本参数 |
否 |
关联的Flink SQL脚本如果使用了参数,此处显示参数名称,请在参数名称后的输入框配置参数值。参数值支持使用EL表达式。 若关联的Flink SQL脚本,脚本参数发生变化,可单击刷新按钮同步。 |
UDF Jar |
否 |
当作业所属集群选择独享集群时,该参数有效。在选择UDF Jar之前,您需要将UDF Jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考新建资源。 用户可以在SQL中调用插入Jar包中的自定义函数。 |
DLI队列 |
是 |
默认选择“共享队列”,用户也可以选择自定义的独享队列。 |
CUs |
是 |
CUs为DLI计费单位,一个CU是1核4G的资源配置。 |
并发数 |
是 |
并发数是指同时运行Flink SQL作业的任务数。
说明:
并发数不能大于计算单元(CUs-1)的4倍。 |
异常自动启动 |
否 |
设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 |
参数 |
是否必选 |
说明 |
---|---|---|
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
作业类型 |
是 |
选择“Flink OpenSource SQL作业”。用户采用编写SQL语句来启动作业。 |
作业名称 |
是 |
填写DLI Flink作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。 |
作业名称添加工作空间前缀 |
否 |
设置是否为创建的作业名称添加工作空间前缀。 |
脚本路径 |
是 |
|
脚本参数 |
否 |
关联的Flink SQL脚本如果使用了参数,此处显示参数名称,请在参数名称后的输入框配置参数值。参数值支持使用EL表达式。 若关联的Flink SQL脚本,脚本参数发生变化,可单击刷新按钮同步。 |
UDF Jar |
否 |
当作业所属集群选择独享集群时,该参数有效。在选择UDF Jar之前,您需要将UDF Jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考新建资源。 用户可以在SQL中调用插入Jar包中的自定义函数。 |
DLI队列 |
是 |
默认选择“共享队列”,用户也可以选择自定义的独享队列。 |
CUs |
是 |
CUs为DLI计费单位,一个CU是1核4G的资源配置。 |
并发数 |
是 |
并发数是指同时运行Flink SQL作业的任务数。
说明:
并发数不能大于计算单元(CUs-1)的4倍。 |
异常自动启动 |
否 |
设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 |
参数 |
是否必选 |
说明 |
---|---|---|
作业类型 |
是 |
选择“Flink自定义作业”。 |
jar包资源 |
是 |
用户自定义的程序包。在选择程序包之前,您需要将对应的jar包上传至OBS桶中,并在“资源管理”页面中新建资源,具体操作请参考新建资源。 |
入口类 |
是 |
指定加载的Jar包类名,如KafkaMessageStreaming。
|
入口参数 |
是 |
指定类的参数列表,参数之间使用空格分隔。 |
DLI队列 |
是 |
默认选择“共享队列”,用户也可以选择自定义的独享队列。 |
作业特性 |
否 |
选择自定义镜像和对应版本。仅当DLI队列为容器化队列类型时,出现本参数。 自定义镜像是DLI的特性。用户可以依赖DLI提供的Spark或者Flink基础镜像,使用Dockerfile将作业运行需要的依赖(文件、jar包或者软件)打包到镜像中,生成自己的自定义镜像,然后将镜像发布到SWR(容器镜像服务)中,最后在此选择自己生成的镜像,运行作业。 自定义镜像可以改变Spark作业和Flink作业的容器运行环境。用户可以将一些私有能力内置到自定义镜像中,从而增强作业的功能、性能。关于自定义镜像的更多详情,请参见自定义镜像。 |
CUs |
是 |
CUs为DLI计费单位,一个CU是1核4G的资源配置。 |
管理节点CU数量 |
是 |
设置管理单元的CU数,支持设置1~4个CU数,默认值为1个CU。 |
并发数 |
是 |
并发数是指同时运行Flink SQL作业的任务数。
说明:
并发数不能大于计算单元(CUs-1)的4倍。 |
异常自动启动 |
否 |
设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。 |
作业名称 |
是 |
填写DLI Flink作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。 |
作业名称添加工作空间前缀 |
否 |
设置是否为创建的作业添加工作空间前缀。 |
节点名称 |
是 |
节点名称,可以包含中文、英文字母、数字、“_”、“-”、“/”、“<”、“>”等各类特殊字符,长度为1~128个字符。 |
参数 |
是否必选 |
说明 |
---|---|---|
节点执行的最长时间 |
是 |
设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将会再次重试。 |
失败重试 |
是 |
节点执行失败后,是否重新执行节点。
|
当前节点失败后,后续节点处理策略 |
是 |
节点执行失败后的操作:
|
是否空跑 |
否 |
如果勾选了空跑,该节点不会实际执行,将直接返回成功。 |
任务组 |
否 |
选择任务组。任务组配置好后,可以更细粒度的进行当前任务组中的作业节点的并发数控制,比如作业中包含多个节点、补数据、重跑等场景。 |