更新时间:2023-05-19 GMT+08:00
流生态作业开发指引
概述
流生态系统基于Flink和Spark双引擎,完全兼容Flink/Storm/Spark开源社区版本接口,并且在此基础上做了特性增强和性能提升,为用户提供易用、低时延、高吞吐的数据湖探索。
云服务生态开发
数据源 |
SQL |
自定义作业 |
|
输入流:从其他服务或数据库中获取数据 |
输出流:将处理后的数据写入到其他服务或数据库中 |
||
表格存储服务 CloudTable |
- |
||
云搜索服务 CSS |
- |
- |
|
分布式缓存服务 DCS |
- |
||
文档数据库服务 DDS |
- |
- |
|
数据接入服务 DIS |
- |
||
分布式消息服务 DMS |
- |
||
数据仓库服务 DWS |
- |
||
MapReduce服务 MRS |
|||
对象存储服务 OBS |
- |
||
关系型数据库 RDS |
- |
- |
|
消息通知服务 SMN |
- |
- |
开源生态开发
数据源 |
SQL |
自定义作业 |
|
输入流 |
输出流 |
||
Apache Kafka |
- |
流生态开发支持的数据格式
DLI Flink作业支持如下数据格式:
Avro,Avro_merge,BLOB,CSV,EMAIL,JSON,ORC,Parquet,XML。
数据格式 |
支持的输入流 |
支持的输出流 |
---|---|---|
Avro |
- |
|
Avro_merge |
- |
|
BLOB |
- |
|
CSV |
||
|
- |
|
JSON |
||
ORC |
- |
|
Parquet |
- |
|
XML |
- |
父主题: Flink Jar作业开发指南