计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
弹性伸缩 AS
镜像服务 IMS
专属主机 DeH
函数工作流 FunctionGraph
云手机服务器 CPH
Huawei Cloud EulerOS
网络
虚拟私有云 VPC
弹性公网IP EIP
虚拟专用网络 VPN
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
VPC终端节点 VPCEP
云连接 CC
企业路由器 ER
企业交换机 ESW
全球加速 GA
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
边缘安全 EdgeSec
威胁检测服务 MTD
CDN与智能边缘
内容分发网络 CDN
CloudPond云服务
智能边缘云 IEC
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MGC
大数据
MapReduce服务 MRS
数据湖探索 DLI
表格存储服务 CloudTable
云搜索服务 CSS
数据接入服务 DIS
数据仓库服务 GaussDB(DWS)
数据治理中心 DataArts Studio
数据可视化 DLV
数据湖工厂 DLF
湖仓构建 LakeFormation
企业应用
云桌面 Workspace
应用与数据集成平台 ROMA Connect
云解析服务 DNS
专属云
专属计算集群 DCC
IoT物联网
IoT物联网
设备接入 IoTDA
智能边缘平台 IEF
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
国际站常见问题
ICP备案
我的凭证
支持计划
客户运营能力
合作伙伴支持计划
专业服务
区块链
区块链服务 BCS
Web3节点引擎服务 NES
解决方案
SAP
高性能计算 HPC
视频
视频直播 Live
视频点播 VOD
媒体处理 MPC
实时音视频 SparkRTC
数字内容生产线 MetaStudio
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
存储容灾服务 SDRS
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
专属分布式存储服务 DSS
容器
云容器引擎 CCE
容器镜像服务 SWR
应用服务网格 ASM
华为云UCS
云容器实例 CCI
管理与监管
云监控服务 CES
统一身份认证服务 IAM
资源编排服务 RFS
云审计服务 CTS
标签管理服务 TMS
云日志服务 LTS
配置审计 Config
资源访问管理 RAM
消息通知服务 SMN
应用运维管理 AOM
应用性能管理 APM
组织 Organizations
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
应用身份管理服务 OneAccess
数据库
云数据库 RDS
文档数据库服务 DDS
数据管理服务 DAS
数据复制服务 DRS
云数据库 GeminiDB
云数据库 GaussDB
分布式数据库中间件 DDM
数据库和应用迁移 UGO
云数据库 TaurusDB
人工智能
人脸识别服务 FRS
图引擎服务 GES
图像识别 Image
内容审核 Moderation
文字识别 OCR
AI开发平台ModelArts
图像搜索 ImageSearch
对话机器人服务 CBS
华为HiLens
视频智能分析服务 VIAS
语音交互服务 SIS
应用中间件
分布式缓存服务 DCS
API网关 APIG
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
多活高可用服务 MAS
事件网格 EG
企业协同
华为云会议 Meeting
云通信
消息&短信 MSGSMS
云生态
合作伙伴中心
云商店
开发者工具
SDK开发指南
API签名指南
Terraform
华为云命令行工具服务 KooCLI
其他
产品价格详情
系统权限
管理控制台
客户关联华为云合作伙伴须知
消息中心
公共问题
开发与运维
应用管理与运维平台 ServiceStage
软件开发生产线 CodeArts
需求管理 CodeArts Req
部署 CodeArts Deploy
性能测试 CodeArts PerfTest
编译构建 CodeArts Build
流水线 CodeArts Pipeline
制品仓库 CodeArts Artifact
测试计划 CodeArts TestPlan
代码检查 CodeArts Check
代码托管 CodeArts Repo
云应用引擎 CAE
开天aPaaS
云消息服务 KooMessage
云手机服务 KooPhone
云空间服务 KooDrive

创建Flink Jar作业

更新时间:2025-01-17 GMT+08:00

Flink Jar作业是基于Flink能力进行二次开发的场景,即构建自定义应用Jar包并提交到DLI的队列运行。

Flink Jar作业场景需要用户自行编写并构建应用Jar包,适用于对流计算处理复杂度要求较高的用户场景,且用户可以熟练掌握Flink二次开发能力。

本节操作介绍在DLI管理控制台创建Flink Jar作业的操作步骤。

前提条件

  • 创建Flink Jar作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。
  • 用户运行Flink Jar作业时,需要将二次开发的应用代码构建为Jar包,上传到已经创建的OBS桶中。
  • 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。为了避免依赖包兼容性问题或日志输出及转储问题,打包时请注意排除以下文件:
    • 系统内置的依赖包,或者在Maven或者Sbt构建工具中将scope设为provided
    • 日志配置文件(例如:“log4j.properties”或者“logback.xml”等)
    • 日志输出实现类JAR包(例如:log4j等)

注意事项

创建作业提交任务前,建议先开通云审计服务,用于记录与DLI服务相关的操作事件,便于日后的查询、审计和回溯。云审计服务支持的DLI操作列表详见使用CTS审计DLI服务

关于如何开通云审计服务以及如何查看追踪事件,请参考《云审计服务快速入门》。

创建Flink Jar作业

  1. 在DLI管理控制台的左侧导航栏中,单击作业管理>Flink作业,进入“Flink作业”页面。
  2. “Flink作业”页面右上角单击“新建作业”,弹出“新建作业”对话框。

    图1 新建Flink Jar作业

  3. 配置作业信息。

    表1 作业配置信息

    参数

    参数说明

    类型

    选择Flink Jar。

    名称

    作业名称,只能由英文、中文、数字、中划线和下划线组成,并且长度为1~57字节。

    说明:

    作业名称必须是唯一的。

    描述

    作业的相关描述,且长度为0~512字节。

    标签

    使用标签标识云资源。包括标签键和标签值。如果您需要使用同一标签标识多种云资源,即所有服务均可在标签输入框下拉选择同一标签,建议在标签管理服务(TMS)中创建预定义标签。

    如您的组织已经设定DLI的相关标签策略,则需按照标签策略规则为资源添加标签。标签如果不符合标签策略的规则,则可能会导致资源创建失败,请联系组织管理员了解标签策略详情。

    具体请参考《标签管理服务用户指南》。

    说明:
    • 最多支持20个标签。
    • 一个“键”只能添加一个“值”。
    • 每个资源中的键名不能重复。
    • 标签键:在输入框中输入标签键名称。
      说明:

      标签的键的最大长度为128个字符,标签的键可以包含任意语种字母、数字、空格和_ . : +-@ ,但首尾不能含有空格,不能以_sys_开头。

    • 标签值:在输入框中输入标签值。
      说明:

      标签值的最大长度为255个字符,标签的值可以包含任意语种字母、数字、空格和_ . : +-@ 。

  4. 单击“确定”,进入编辑页面。
  5. 选择队列。
  6. 配置Flink Jar作业参数

    图2 配置Flink Jar作业参数
    表2 参数说明

    名称

    描述

    所属队列

    选择作业运行时使用的队列资源。

    应用程序

    选择Jar作业程序包。

    Jar包的管理方式:

    • 上传OBS管理程序包:提前将对应的jar包上传至OBS桶中。并在此处选择对应的OBS路径。
    • 上传DLI管理程序包:提前将对应的jar包上传至OBS桶中,并在DLI管理控制台的数据管理>程序包管理中创建程序包,具体操作请参考创建DLI程序包

    Flink1.15推荐配置OBS中的程序包,不推荐使用DLI程序包。Flink1.15以上版本将不再支持读取DLI程序包。

    主类

    指定加载的Jar包类名,如KafkaMessageStreaming。

    • 默认:根据Jar包文件的Manifest文件指定。
    • 指定:必须输入“类名”并确定类参数列表(参数间用空格分隔)。
    说明:

    当类属于某个包时,主类路径需要包含完整包路径,例如:packagePath.KafkaMessageStreaming

    参数

    指定类的参数列表,参数之间使用空格分隔。

    Flink参数支持非敏感的全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量windowsize,Flink Jar作业就可以添加参数-windowsSize {{windowsize}}。

    依赖jar包

    用户自定义的依赖程序包。依赖的相关程序包将会被放置到集群classpath下。

    Jar包的管理方式:

    • 上传OBS管理程序包:提前将对应的jar包上传至OBS桶中。并在此处选择对应的OBS路径。
    • 上传DLI管理程序包:提前将对应的jar包上传至OBS桶中,并在DLI管理控制台的数据管理>程序包管理中创建程序包,具体操作请参考创建DLI程序包

    Flink1.15推荐配置OBS中的程序包,不推荐使用DLI程序包。Flink1.15以上版本将不再支持读取DLI程序包。

    打包Flink jar作业jar包时,为避免包信息冲突,不需要上传系统已有的内置依赖包。

    内置依赖包请参考DLI内置依赖包

    其他依赖文件

    用户自定义的依赖文件。其他依赖文件需要自行在代码中引用。

    依赖文件的管理方式:

    • 上传OBS管理程序包:提前将对应的依赖文件上传至OBS桶中。并在此处选择对应的OBS路径。
    • 上传DLI管理程序包:提前将对应的依赖文件上传至OBS桶中,并在DLI管理控制台的数据管理>程序包管理中创建程序包,具体操作请参考创建DLI程序包

    Flink1.15推荐配置OBS中的程序包,不推荐使用DLI程序包。Flink1.15以上版本将不再支持读取DLI程序包。

    通过在应用程序中添加以下内容可访问对应的依赖文件。其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名。

    ClassName.class.getClassLoader().getResource("userData/fileName")

    作业特性

    队列为CCE队列时,显示该参数。

    Flink版本

    先选择所属的队列再选择Flink版本。

    说明:

    不建议长期混用不同版本的Flink引擎。

    • 长期混用不同版本的Flink引擎会导致代码在新旧版本之间不兼容,影响作业的执行效率。
    • 当作业依赖于特定版本的库或组件,长期混用不同版本的Flink引擎可能会导致作业因依赖冲突而执行失败。

    委托

    使用Flink 1.15版本执行作业时,按需配置自定义委托用于授予DLI访问其他服务的操作权限。

    优化参数

    用户自定义的优化参数。参数格式为key=value。

    Flink优化参数支持非敏感的全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量phase,Flink Jar作业就可以添加优化参数table.optimizer.agg-phase.strategy={{phase}}。

    Flink 1.15版本支持Flink Jar作业最小化提交,通过在运行优化参数中配置flink.dli.job.jar.minimize-submission.enabled=true可以开启最小化提交功能。

    说明:

    Flink Jar作业最小化提交是指Flink仅提交作业必须的依赖项,而不是整个Flink环境。通过将非Connector的Flink依赖项(以flink-开头)和第三方库(如Hadoop、Hive、Hudi、Mysql-cdc)的作用域设置为provided,可以确保这些依赖项不会被包含在Jar作业中,从而实现最小化提交,避免依赖包与flink内核中依赖包冲突:

    • 仅Flink 1.15版本支持Flink Jar作业最小化提交。
    • Flink相关依赖作用域请使用provided,即在依赖中添加<scope>provided</scope>。主要包含org.apache.flink组下以flink-开头的非Connector依赖。
    • Hadoop、Hive、Hudi、Mysql-cdc相关依赖,作用域请使用provided,即在依赖中添加<scope>provided</scope>。
    • Flink源代码中只有明确标注了@Public或者@PublicEvolving的才是公开供用户调用的方法,DLI只对这些方法的兼容性做出产品保证。

  7. 配置计算资源规格参数。

    图3 配置参数
    表3 参数说明

    名称

    描述

    CU数量

    一个CU为1核4G的资源量。CU数量范围为2~10000个。

    说明:

    当开启TaskManager配置时,为了优化弹性资源池队列的管理,在您设置“单TM Slot”后,为您自动调整CU数量与实际CU数量一致。

    CU数量=实际CU数量=max[管理单元和TaskManager的CPU总和,(管理单元和TaskManager的内存总和/4)]

    • 管理单元和TaskManager的CPU总和=实际TM数 * 单TM所占CU数 + 管理单元。
    • 管理单元和TaskManager的内存总和= 实际TM数 * 设置的单个TM的内存 + 管理单元内存
    • 如果配置了单 TM Slot数,实际TM数 = 并行数 / 单 TM Slot数。
    • 如果没配置了单 TM Slot数 ,实际TM数 = (CU数量 - 管理单元)/单TM所占CU数。
    • 如果没在优化参数配置单个TM的内存和管理单元内存,默认单个TM的内存 = 单TM所占CU数 * 4。管理单元内存 = 管理单元 * 4。
    • Spark资源并行度由Executor数量和Executor CPU核数共同决定。

    管理单元

    设置管理单元的CU数。

    并行数

    作业的并行数是指作业中各个算子的并行执行的子任务的数量,即算子子任务数就是其对应算子的并行度。

    说明:
    • 并行数不能大于计算单元(CU数量-管理单元CU数量)的4倍。
    • 并行数应大于用户作业里设置的并发数,否则有可能提交失败。

    TaskManager配置

    用于设置TaskManager资源参数。

    • 勾选后需配置下列参数:
      • “单TM所占CU数”:每个TaskManager占用的资源数量。
      • “单TM Slot”:每个TaskManager包含的Slot数量。
    • 不勾选该参数,,系统自动按照默认值为您配置。
      • “单TM所占CU数”:默认值为1。
      • “单TM Slot”:默认值为“(并行数 * 单TM所占CU数 )/(CU数量 - 管理单元)”。

    保存作业日志

    设置是否将作业运行时的日志信息保存到OBS桶。

    勾选“保存作业日志”时,还需要设置OBS桶信息。

    注意:

    该参数建议勾选,否则作业运行完成后不会生成运行日志,后续如果作业运行异常则无法获取运行日志进行定位。

    开启Checkpoint

    Checkpoint用于定期保存作业状态,开启Checkpoint可以在系统故障时快速恢复指定的作业状态。

    DLI开启Checkpoint有两种方式:

    • 在作业代码中配置Checkpoint相关参数,适用于Flink 1.15及历史Flink版本。
    • 在DLI管理控制台的Jar作业配置界面开启Checkpoint,适用于Flink 1.15及更高的引擎版本。

    Flink 1.15版本请勿重复在作业代码和Jar作业配置界面配置Checkpoint相关参数,作业代码中的配置项优先级更高,重复配置可能导致作业在异常重启时使用错误的Checkpoint路径恢复数据,导致恢复失败或数据不一致。

    勾选“开启Checkpoint”后配置以下参数开启Checkpoint:
    • Checkpoint间隔:Checkpoint的时间间隔,单位为秒。
    • Checkpoint模式:选择Checkpoint的模式:
      • At least once:事件至少被处理一次。
      • Exactly once:事件仅被处理一次。
    注意:
    • 勾选开启Checkpoint后需配置OBS桶参数, 用于保存Checkpoint信息,默认Checkpoint保存路径为:“桶名/jobs/checkpoint/作业ID开头的目录”。
    • 开启Checkpoint后,请勿在作业代码中设置Checkpoint参数,作业代码中配置的参数优先级高于界面配置的参数优先级。重复配置可能导致作业在异常重启时使用错误的Checkpoint路径恢复数据,导致恢复失败或数据不一致。
    • 开启Checkpoint后,如果同时勾选了“异常自动重启” ,并勾选了“从Checkpoint恢复”,无需再指定“Checkpoint路径”,系统会根据“开启Checkpoint”的配置信息自动指定。

    OBS桶

    勾选“保存作业日志”或“开启Checkpoint”时,该参数必选。

    选择OBS桶用于保存用户作业日志信息。如果选择的OBS桶是未授权状态,需要单击“OBS授权”。

    作业异常告警

    设置是否将作业异常告警信息,如作业出现运行异常或者欠费情况,以SMN的方式通知用户。

    勾选后需配置下列参数:

    “SMN主题”

    选择一个自定义的SMN主题。如何自定义SMN主题,请参见《消息通知服务用户指南》“创建主题”章节。

    异常自动重启

    设置是否启动异常自动重启功能,当作业异常时将自动重启并恢复作业。

    勾选后需配置下列参数:

    • “异常重试最大次数”:配置异常重试最大次数。单位为“次/小时”。
      • 无限:无限次重试。
      • 有限:自定义重试次数。
    • “从Checkpoint恢复”:从保存的checkpoint恢复作业。

      勾选该参数后,需要选择“Checkpoint路径”。

      “Checkpoint路径”:选择checkpoint保存路径。必须和应用程序中配置的Checkpoint地址相对应。且不同作业的路径不可一致,否则无法获取准确的Checkpoint。

      说明:
      • 仅当同时勾选了“开启Checkpoint” 时无需再指定“Checkpoint路径”,系统会根据“开启Checkpoint”的配置信息自动指定。
      • 如果未勾选“开启Checkpoint”,需要选择“Checkpoint路径”。

  8. 单击右上角“保存”,保存作业和相关参数。
  9. 单击右上角“启动”,进入“启动Flink作业”页面,确认作业规格和费用,单击“立即启动”,启动作业,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在状态列中可以查看作业状态。

    • 作业提交成功后,状态将由提交中变为运行中。运行完成后显示“已完成”。
    • 如果作业状态为提交失败运行异常,表示作业提交或运行失败。用户可以在作业列表中的状态列中,将鼠标移动到状态图标上查看错误信息,单击可以复制错误信息。根据错误信息解决故障后,重新提交。

我们使用cookie来确保您的高速浏览体验。继续浏览本站,即表示您同意我们使用cookie。 详情

文档反馈

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容