Flink作业概述
DLI支持的两种类型的Flink作业:
- Flink OpenSource SQL类型作业:
- 完全兼容社区版的Flink,确保了作业可以在这些Flink版本上无缝运行。
- 在社区版Flink的基础上,DLI扩展了Connector的支持,新增了Redis、DWS作为数据源类型。为用户提供了更多的数据源选择,使得数据集成更加灵活和方便。
- Flink OpenSource SQL作业适合通过SQL语句来定义和执行流处理逻辑的场景,简化了流处理的复杂性,使得开发者可以更加专注于业务逻辑的实现。
创建Flink OpenSource SQL请参考创建Flink OpenSource SQL作业。
- Flink Jar作业:
- DLI允许用户提交编译为Jar包的Flink作业,提供了更高的灵活性和自定义能力,适合需要进行复杂数据处理的场景。
- 当社区版Flink提供的Connector不能满足特定需求时,用户可以通过Jar作业来实现自定义的Connector或数据处理逻辑。
- 适合需要实现UDF(用户定义函数)或特定库集成的场景,用户可以利用Flink的生态系统来实现高级的流处理逻辑和状态管理。
创建Flink Jar作业请参考创建Flink Jar作业。
- 自管作业:由DLI管理控制台、API或SDK提交的Flink作业。该类作业的生命周期由DLI统一托管和维护,包括创建、编辑、启动、停止等操作。
- 托管作业:DataArts云服务对接DLI Flink的作业列表(规划中)。
由DataArts管理控制台、API或SDK提交的Flink作业。该类作业的生命周期由DataArts统一托管和维护,DLI管理控制台仅提供状态查看等只读功能,不支持编辑、启动或停止操作。(该能力规划中)