数据湖工厂 DLF
数据湖工厂 DLF
- 最新动态
- 产品介绍
-
用户指南
- 环境准备
- IAM权限管理
- 数据管理
- 数据集成
- 数据开发
- 解决方案
- 运维调度
- 配置管理
- 配置
- 使用教程
-
参考
-
节点
- 节点概述
- CDM Job
- DIS Stream
- DIS Dump
- DIS Client
- Rest Client
- Import GES
- MRS Kafka
- Kafka Client
- CS Job
- DLI SQL
- DLI Spark
- DWS SQL
- MRS SparkSQL
- MRS Hive SQL
- MRS Presto SQL
- MRS Spark
- MRS Spark Python
- MRS Flink Job
- MRS MapReduce
- CSS
- Shell
- RDS SQL
- ETL Job
- OCR
- Create OBS
- Delete OBS
- OBS Manager
- Open/Close Resource
- Data Quality Monitor
- Sub Job
- SMN
- Dummy
- For Each
- 表达式
-
节点
- 修订记录
- API参考
- 常见问题
- 产品术语
- 通用参考
链接复制成功!
新建脚本
数据开发模块的脚本开发功能支持在线编辑、调试和执行脚本,开发脚本前请先新建脚本。
新建目录(可选)
如果已存在可用的目录,可以不用新建目录。
- 登录DLF管理控制台。
- 在数据开发模块控制台的左侧导航栏,选择“数据开发 > 脚本开发”。
- 在脚本目录中,右键单击目录名称,选择“新建目录”。
- 在弹出的“新建目录”页面,配置如表1所示的参数。
- 单击“确定”,新建目录。
新建脚本
DLF目前支持新建以下几种脚本,用户可根据需要新建相应的脚本。
- DLI SQL脚本
- Hive SQL脚本
- DWS SQL脚本
- Spark SQL脚本
- Flink SQL脚本
- RDS SQL脚本
- PRESTO SQL脚本,仅亚太-新加坡区域支持。通过PRESTO SQL脚本执行select 查询语句后的查询内容将自动转储至OBS桶的s3a://dlf-log-{project_id}/temp路径下。
- Shell脚本
前提条件
脚本的最大配额是1000,请确保当前脚本的数量未达到最大配额。
父主题: 脚本开发