数据治理中心 DataArts Studio(原DGC)

 

数据治理中心(DataArts Studio)是数据全生命周期一站式开发运营平台,提供数据集成、数据开发、数据治理、数据服务等功能,支持行业知识库智能化建设,支持大数据存储、大数据计算分析引擎等数据底座,帮助企业客户快速构建数据运营能力。

 
 

    数据开发 更多内容
  • FlinkSQL HBase数据表开发建议

    FlinkSQL HBase数据开发建议 客户端提交作业时通过with属性添加HBase配置信息 Flink客户端提交作业,如SQL client提交,在建表语句中添加如下配置: 表1 Flink作业with属性 配置 说明 'properties.hbase.rpc.protection'

    来自:帮助中心

    查看更多 →

  • 什么是数据库开发支持服务

    什么是数据开发支持服务 数据开发支持服务是华为云为了达成客户业务系统开发、测试、上线运行提供的技术支撑,如数据开发指导、性能调优、应用对接与上线支持等。数据开发支持服务满足客户需求,帮助客户解决数据开发过程中遇到的各种疑难问题,帮助客户提升开发人员的数据开发能力。 父主题:

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData开发思路

    “ /opt/” )下。 数据规划 创建HBase表,构造数据,列需要包含key,modify_time,valid。其中每条数据key值全表唯一,modify_time代表修改时间,valid代表是否为有效数据(该样例中'1'为有效,'0'为无效数据)。 示例:进入hbase shell,执行如下命令:

    来自:帮助中心

    查看更多 →

  • HBase数据读写样例程序开发思路

    进行业务建表或数据读写等操作。 开发思路 根据上述的业务场景进行功能分解,需要开发的功能点如表2所示。 表2 在HBase中开发的功能 序号 步骤 代码实现 1 根据表1中的信息创建表。 请参见创建HBase表。 2 导入用户数据。 请参见向HBase表中插入数据。 3 增加“教

    来自:帮助中心

    查看更多 →

  • HBase数据读写样例程序开发思路

    进行业务建表或数据读写等操作。 开发思路 根据上述的业务场景进行功能分解,需要开发的功能点如表2所示。 表2 在HBase中开发的功能 序号 步骤 代码实现 1 根据表1中的信息创建表。 请参见创建HBase表。 2 导入用户数据。 请参见向HBase表中插入数据。 3 增加“教

    来自:帮助中心

    查看更多 →

  • 开发Impala应用

    开发Impala应用 Impala样例程序开发思路 创建Impala表 加载Impala数据 查询Impala数据 分析Impala数据 开发Impala用户自定义函数 父主题: Impala开发指南

    来自:帮助中心

    查看更多 →

  • FlinkSQL HBase数据表开发规则

    FlinkSQL HBase数据开发规则 提前在HBase中创建表 Flink作业在HBase中找不到对应表会报错,所以需要提前在HBase中创建好对应的表。 HBase与Flink不在同一集群时只支持Flink和HBase均为普通模式集群的对接 当HBase与Flink为同一

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData开发思路

    “ /opt/” )下。 数据规划 创建HBase表,构造数据,列需要包含key,modify_time,valid。其中每条数据key值全表唯一,modify_time代表修改时间,valid代表是否为有效数据(该样例中'1'为有效,'0'为无效数据)。 示例:进入hbase shell,执行如下命令:

    来自:帮助中心

    查看更多 →

  • Hive应用开发开发流程

    Hive应用开发开发流程 开发流程中各阶段的说明如图1和表1所示。 图1 Hive应用程序开发流程 表1 Hive应用开发的流程说明 阶段 说明 参考文档 准备开发环境 在进行应用开发前,需首先准备开发环境,推荐使用Java语言进行开发,使用IntelliJ IDEA工具,同时完成JDK、Maven等初始配置。

    来自:帮助中心

    查看更多 →

  • 作业开发流程

    的作业。 作业开发支持细粒度权限管控,在数据安全模块对数据开发作业目录权限管控策略进行配置。 开发作业前,您可以通过图1了解数据开发模块作业开发的基本流程。 图1 作业开发流程 新建作业:当前提供两种作业类型:批处理和实时处理,分别应用于批量数据处理和实时连接性数据处理,其中批处

    来自:帮助中心

    查看更多 →

  • 开发Python脚本

    开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 在脚本目录中,双击脚本名称,进入脚本开发页面。 在编辑器上方,配置执行Python脚本的Python版本和主机连接。 表1 Python脚本属性 参数 说明 Python版本 选择Python版本。 Py

    来自:帮助中心

    查看更多 →

  • 开发Hive应用

    开发Hive应用 Hive样例程序开发思路 创建Hive表 加载Hive数据 查询Hive数据 分析Hive数据 开发Hive用户自定义函数 父主题: Hive开发指南

    来自:帮助中心

    查看更多 →

  • 开发Impala应用

    开发Impala应用 Impala样例程序开发思路 创建Impala表 加载Impala数据 查询Impala数据 开发Impala用户自定义函数 Impala样例程序指导 父主题: Impala开发指南(普通模式)

    来自:帮助中心

    查看更多 →

  • 作业开发API

    作业开发API 创建作业 修改作业 查询作业列表 查询作业详情 查询作业文件 导出作业 批量导出作业 导入作业 立即执行作业 启动作业 停止作业 删除作业 停止作业实例 重跑作业实例 查询实时作业运行状态 查询作业实例列表 查询作业实例详情 查询系统任务详情 父主题: 数据开发API(V1)

    来自:帮助中心

    查看更多 →

  • 作业开发API

    作业开发API 创建补数据实例 查询补数据实例 停止补数据实例 修改作业名称 查询发布包列表 查询指定发布包详情 设置作业标签 查询告警通知记录 发布任务包 撤销任务包 查询实例运行状态 查询任务完成情况 查询指定作业的实例列表 重跑作业实例 父主题: 数据开发API(V2)

    来自:帮助中心

    查看更多 →

  • 开发SQL脚本

    Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”。 在脚本目录中,双击脚本名称,进入脚本开发页面。 在编辑器上方,选择如表1所示的属性。创建Flink SQL脚本时请跳过此步骤。 表1 SQL脚本属性 属性 说明 数据连接 选择数据连接。

    来自:帮助中心

    查看更多 →

  • 基于运维数仓的数据开发与应用

    基于运维数仓的数据开发与应用 方案概述 数据接入 数据导流 数据汇聚 数据开发 数据应用

    来自:帮助中心

    查看更多 →

  • 作业开发

    作业开发 作业开发概述 新建作业 编排作业 保存作业 父主题: 实时分析

    来自:帮助中心

    查看更多 →

  • 开发推理

    开发推理 目前“专家经验注入”是为Gpr数据集定制,如果用户使用Gpr数据集体验KPI异常检测学件的操作流程,可以先执行“专家经验注入”,再执行“开发推理”,那么专家经验会自动转成代码并关联到模型推理函数里面。 “开发推理”用于生成推理代码至推理文件“learnware_predict

    来自:帮助中心

    查看更多 →

  • 开发页面

    开发页面 标准页面 高级页面 父主题: 定制开发应用

    来自:帮助中心

    查看更多 →

  • 开发 API

    配置好API基本信息后,单击“下一步”,即可进入API取数逻辑页面。 图4 创建API4 选择数据源、数据连接、数据库和数据表,获取到需要配置的表。 图5 创建API5 配置参数字段选择好数据表之后,单击“参数设置”后的“添加”,添加参数页面自动列出这个表的所有字段,分别勾选需要设置

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了