数据湖工厂 DLF
数据湖工厂 DLF
- 最新动态
- 产品介绍
-
用户指南
- 环境准备
- IAM权限管理
- 数据管理
- 数据集成
- 数据开发
- 解决方案
- 运维调度
- 配置管理
- 配置
- 使用教程
-
参考
-
节点
- 节点概述
- CDM Job
- DIS Stream
- DIS Dump
- DIS Client
- Rest Client
- Import GES
- MRS Kafka
- Kafka Client
- CS Job
- DLI SQL
- DLI Spark
- DWS SQL
- MRS SparkSQL
- MRS Hive SQL
- MRS Presto SQL
- MRS Spark
- MRS Spark Python
- MRS Flink Job
- MRS MapReduce
- CSS
- Shell
- RDS SQL
- ETL Job
- OCR
- Create OBS
- Delete OBS
- OBS Manager
- Open/Close Resource
- Data Quality Monitor
- Sub Job
- SMN
- Dummy
- For Each
- 表达式
-
节点
- 修订记录
- API参考
- 常见问题
- 产品术语
- 通用参考
本文导读
展开导读
链接复制成功!
CS作业管理
为了协助用户快速进行流式大数据分析,数据开发模块集成了CS作业管理功能。用户可通过“数据开发数据开发模块”控制台选择区的下拉选项,选择“数据集成”,进入数据集成管理界面。在左边的导航栏中选择CS作业管理,进入CS作业管理页面。同时,用户也可以直接访问CS控制台进行相应操作。
CS的使用方法请参见《实时流计算服务用户指南》。
父主题: 数据集成