数据湖工厂 更多内容
  • 数据开发概述

    数据服务,极大降低用户使用大数据的门槛,帮助您快速构建大数据处理中心。 数据开发模块曾被称为数据湖工厂(Data Lake Factory,后简称DLF)服务,因此在本文中,“数据湖工厂”、“DLF”均可用于指代“数据开发”模块。 数据开发简介 使用数据开发模块,用户可进行数据管

    来自:帮助中心

    查看更多 →

  • 企业项目支持的资源类型

    对象存储服务控制台上的桶名称ID NAT Gateway 公网NAT网关 nat_gateways NAT网关控制台上的NAT网关ID DLF 数据湖工厂工作区 dlf_workspace 数据湖工厂服务的工作区ID ModelArts 工作空间 workspace ModelArts服务控制台上的工作空间ID

    来自:帮助中心

    查看更多 →

  • 修订记录

    2018-05-31 第二十七次正式发布。 支持对关键操作通知进行自定义配置,新增“配置关键操作通知”章节。 新增对接安全中心 新增对接数据湖工厂服务 2018-04-25 第二十六次正式发布,新增对接。 应用编排服务。 函数服务 对话机器人服务 DDos高防服务 应用运维管理 区块链服务

    来自:帮助中心

    查看更多 →

  • DIS事件通知

    当OBS桶中触发了对象上传、下载、删除等操作事件时,OBS将事件通知发送给DIS,再通过DIS通道将通知分发给下游的大数据处理服务,如数据湖工厂(DLF)。大数据处理服务接到通知后,利用委托的OBS权限对OBS中更新的数据进行实时分析处理。您可以将通知配置为按对象名称的前缀或后缀进行筛选。

    来自:帮助中心

    查看更多 →

  • 功能总览

    当OBS桶中触发了对象上传、下载、删除等操作事件时,OBS将事件通知发送给DIS,再通过DIS通道将通知分发给下游的大数据处理服务,如数据湖工厂(DLF)。大数据处理服务接到通知后,利用委托的OBS权限对OBS中更新的数据进行实时分析处理。 发布区域:华东-上海一、华北-北京四、华南-广州

    来自:帮助中心

    查看更多 →

  • 系统策略更名详情

    ReadOnlyAccess DLF DLF Admin DLF FullAccess DLF Developer DLF Development DLF Operator DLF OperationAndMaintenanceAccess DLF Viewer DLF ReadOnlyAccess

    来自:帮助中心

    查看更多 →

  • 通过数据开发实现数据增量迁移

    Studio服务的DLF组件提供了一站式的大数据协同开发平台,借助DLF的在线脚本编辑、周期调度CDM的迁移作业,也可以实现增量数据迁移。 这里以DWS导入到OBS为例,介绍DLF配合CDM实现增量迁移的流程: 获取CDM作业的JSON 修改JSON 创建DLF作业 获取CDM作业的JSON

    来自:帮助中心

    查看更多 →

  • (可选)获取认证信息

    {region_id}.myhuaweicloud.com,具体如表1所示。 DLF数据开发V1接口:dayu-dlf.{region_id}.myhuaweicloud.com,具体如表2所示。 DLF数据开发V2接口:dayu.{region_id}.myhuaweicloud

    来自:帮助中心

    查看更多 →

  • 查询资源详情

    "location": "obs://dlf-test/hadoop-mapreduce-examples-2.4.1.jar", "dependFiles": ["obs://dlf-test/depend1.jar","obs://dlf-test/depend2.jar"]

    来自:帮助中心

    查看更多 →

  • 基线运维约束限制

    'priority=low'); 其中DWS优先级1对应DLF基线运维作业的优先级的1。 SELECT * FROM gs_wlm_set_queryband_action('Priority=2','priority=medium'); 其中DWS优先级2对应DLF基线运维作业的优先级的2、3和4。

    来自:帮助中心

    查看更多 →

  • 查询指定发布包详情

    "ei_dlf_l00341563", "task_type": 2, "update_type": 1 } ] } 失败响应 HTTP状态码 400 { "error_code": "DLF.3051"

    来自:帮助中心

    查看更多 →

  • 元数据迁移

    空即可。 服务接入点 配置待迁移元数据服务接入点。 “数据源类型”为“DLF”时配置该参数。此外还需配置以下参数: Access Key:联系DLF服务运维人员获取AK信息。 Secret Key:联系DLF服务运维人员获取SK信息。 源Catalog 待迁移元数据所属Catalog名称。

    来自:帮助中心

    查看更多 →

  • 导出连接(待下线)

    cation/octet-stream,需要解析转化为一个文件,可以参考解析响应消息体中的流样例代码。响应是一个压缩文件,文件名称格式是DLF_All_DataConnections.zip,压缩文件里面的文件目录如下: connections ├─{dwsConnection}

    来自:帮助中心

    查看更多 →

  • 删除作业

    删除作业 功能介绍 本接口用于删除DLF作业。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。 URI URI格式 DELETE /v1/{project_id}/jobs/{job_name} 参数说明 表1 URI参数说明 参数名 是否必选 参数类型 说明

    来自:帮助中心

    查看更多 →

  • 查询连接详情(待下线)

    "kmsKey":"cdm-dlf", "agentName":"cdm-donotdelete", "sslEnable":false } } 失败响应 HTTP状态码 400 { "error_code":"DLF.6322", "error_msg":"The

    来自:帮助中心

    查看更多 →

  • 批量导出作业

    批量导出作业 功能介绍 此接口可以批量导出DLF作业定义,包括作业依赖的脚本和CDM作业定义。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。 URI URI格式 POST /v1/{project_id}/jobs/batch-export 参数说明 表1

    来自:帮助中心

    查看更多 →

  • 导入连接(待下线)

    633aabc9505/connections/import { "path":"obs://00zyx/2019-07-02/DLF_All_DataConnections.zip", "sameNamePolicy":"OVERWRITE", "params":[

    来自:帮助中心

    查看更多 →

  • 查询连接列表(待下线)

    "password":"*********", "kmsKey":"cdm-dlf", "agentName":"cdm-donotdelete", "sslEnable":false

    来自:帮助中心

    查看更多 →

  • 创建任务

    日志存放路径,由用户选择。 policy_type 是 String 权限类型:DLF、RANGER、LAKEFORMATION。 枚举值: DLF RANGER LAKEFORMATION catalog_id 否 String dlf权限策略转换需要传入catalog_id字段。 instance_id

    来自:帮助中心

    查看更多 →

  • 修改任务信息

    日志存放路径,由用户选择。 policy_type 是 String 权限类型:DLF、RANGER、LAKEFORMATION。 枚举值: DLF RANGER LAKEFORMATION catalog_id 否 String dlf权限策略转换需要传入catalog_id字段。 instance_id

    来自:帮助中心

    查看更多 →

  • 获取任务详情

    日志存放路径,由用户选择。 policy_type String 权限类型:DLF、RANGER、LAKEFORMATION。 枚举值: DLF RANGER LAKEFORMATION catalog_id String dlf权限策略转换需要传入catalog_id字段。 instance_id

    来自:帮助中心

    查看更多 →

共55条
看了本文的人还看了