更新时间:2024-11-25 GMT+08:00
分享

Flink 1.15版本说明

数据湖探索(DLI)遵循开源Flink计算引擎的发布一致性。本文介绍Flink 1.15版本所做的变更说明。

更多Flink 1.15版本说明请参考Release Notes - Flink Jar 1.15Flink OpenSource SQL1.15版本使用说明

Flink 1.15版本发布时间

版本名称

发布时间

状态

EOM时间

EOS时间

DLI Flink 1.15

2023年6月

已发布

2025年6月30日

2026年6月30日

更多版本支持信息请参考DLI计算引擎版本生命周期

Flink 1.15版本说明

  • Flink 1.15版本在语法设计上实现了更高的兼容性,与主流开源技术标准保持一致。
  • Flink 1.15版本新增读写Hive、Hudi等Connector。
  • Flink 1.15版本数据同步迁移场景,优先推荐使用DataArts的数据集成。
  • Flink 1.15版本支持集成DEW-CSMS凭证管理,提供隐私保护方案。
  • Flink 1.15版本支持Flink Jar作业最小化提交。

    Flink Jar作业最小化提交是指Flink仅提交作业必须的依赖项,而不是整个Flink环境。通过将非Connector的Flink依赖项(以flink-开头)和第三方库(如Hadoop、Hive、Hudi、Mysql-cdc)的作用域设置为provided,可以确保这些依赖项不会被包含在Jar作业中,从而实现最小化提交,避免依赖包与flink内核中依赖包冲突:

    • 仅Flink 1.15版本支持Flink Jar作业最小化提交,通过在运行优化参数中配置flink.dli.job.jar.minimize-submission.enabled=true可以开启最小化提交。
    • Flink相关依赖作用域请使用provided,即在依赖中添加<scope>provided</scope>。主要包含org.apache.flink组下以flink-开头的非Connector依赖。
    • Hadoop、Hive、Hudi、Mysql-cdc相关依赖,作用域请使用provided,即在依赖中添加<scope>provided</scope>。
    • Flink源代码中只有明确标注了@Public或者@PublicEvolving的才是公开供用户调用的方法,DLI只对这些方法的兼容性做出产品保证。

相关文档