永洪商业智能解决方案实践

永洪商业智能解决方案实践

    大数据开发和数据挖掘 更多内容
  • 数据开发进阶实践

    数据开发进阶实践 周期调度依赖策略 离散小时调度与作业最近依赖调度逻辑 补数据场景使用介绍 作业调度支持每月最后一天 获取SQL节点的输出结果值 IF条件判断教程 获取Rest Client节点返回值教程 For Each节点使用介绍 数据开发调用数据质量算子并且作业运行的时候需要传入质量参数

    来自:帮助中心

    查看更多 →

  • 查看工作空间内的数据资产

    查看工作空间内的数据资产 数据地图围绕数据搜索,服务于数据分析、数据开发数据挖掘数据运营等数据表的使用者拥有者,提供方便快捷的数据搜索服务,拥有功能强大的血缘信息及影响分析。 搜索:在进行数据分析前,使用数据地图进行关键词搜索,帮助快速缩小范围,找到对应的数据。 详情:使用数据地图根

    来自:帮助中心

    查看更多 →

  • 开发数据预处理作业

    在“计算节点详情”页,单击“前往计算节点”,在登录页正确输入部署计算节点时设置的“登录用户名”“密码”。 图2 前往计算节点 选择界面左侧“数据管理>数据预处理”,单击已创建的数据预处理作业后的开发按钮,进入作业开发页面。该页面描述了字段的属性,如字段名称分布类型。另外可以通过列表下方的“描述性统计”按键来统计字

    来自:帮助中心

    查看更多 →

  • 步骤6:数据开发处理

    source_sdi节点:为 CDM Job节点,通过CDM节点将OBS上的数据导入到 MRS Hive的原始表中。其中CDM集群名称作业名称分别选择在步骤3:数据集成中的集群迁移作业(图中仅为示例,以实际集群名迁移作业名为准)。 图8 source_sdi节点属性 demo_etl_sdi_dwi节点:为MRS

    来自:帮助中心

    查看更多 →

  • 开发数据服务API

    开发数据服务API 购买并管理专享版集群 新建数据服务审核人 创建API 调试API 发布API 管理API 编排API 配置API调用流控策略 授权API调用 父主题: 数据服务

    来自:帮助中心

    查看更多 →

  • Impala应用开发简介

    SELECT,JOIN聚合函数。 HDFS,HBase 对象存储服务 (OBS)存储,包括: HDFS文件格式:基于分隔符的text file,Parquet,Avro,SequenceFileRCFile。 压缩编解码器:Snappy,GZIP,Deflate,BZIP。 常见的数据访问接口包括:

    来自:帮助中心

    查看更多 →

  • Impala应用开发简介

    OIN聚合函数。 HDFS,HBase 对象存储服务(OBS)存储,包括: HDFS文件格式:基于分隔符的text file,Parquet,Avro,SequenceFileRCFile。 压缩编解码器:Snappy,GZIP,Deflate,BZIP。 常见的数据访问接口包括:

    来自:帮助中心

    查看更多 →

  • FPGA开发和应用运行

    FPGA开发应用运行 FPGA加速云服务器 提供硬件开发套件(HDK)应用开发套件(SDK)。 HDK包括加速器示例、编码环境、仿真平台、自动化编译工具、代码加密调试工具包等必备工具。您可以参照应用示例用户开发指导手册,迅速开发测试您的FPGA硬件加速器。 SDK包括应用

    来自:帮助中心

    查看更多 →

  • 准备开发和运行环境

    准备开发运行环境 准备开发环境 在进行应用开发时,要准备的开发运行环境如表1所示。 表1 开发环境 准备项 说明 操作系统 开发环境:Windows系统,支持Windows7以上版本。 运行环境:Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK

    来自:帮助中心

    查看更多 →

  • Hive应用开发简介

    Hive应用开发简介 Hive简介 Hive是一个开源的,建立在Hadoop上的数据仓库框架,提供类似SQL的HQL语言操作结构化数据,其基本原理是将HQL语言自动转换成Mapreduce任务或Spark任务,从而完成对Hadoop集群中存储的海量数据进行查询分析。 Hive主要特点如下:

    来自:帮助中心

    查看更多 →

  • Hive应用开发简介

    Hive应用开发简介 Hive简介 Hive是一个开源的,建立在Hadoop上的数据仓库框架,提供类似SQL的HQL语言操作结构化数据,其基本原理是将HQL语言自动转换成MapReduce任务或Spark任务,从而完成对Hadoop集群中存储的海量数据进行查询分析。 Hive主要特点如下:

    来自:帮助中心

    查看更多 →

  • Impala应用开发简介

    SELECT,JOIN聚合函数。 HDFS,HBase 对象存储服务(OBS)存储,包括: HDFS文件格式:基于分隔符的text file,Parquet,Avro,SequenceFileRCFile。 压缩编解码器:Snappy,GZIP,Deflate,BZIP。 常见的数据访问接口包括:

    来自:帮助中心

    查看更多 →

  • 获取大屏指定组件数据

    获取屏指定组件数据 功能介绍 获取屏指定组件数据。 URI POST /v1/{project_id}/screens/{screen_id}/query-data 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。获取方法请参考获取项目ID。

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找维护。 父主题: 容量数据

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找维护。 父主题: 容量数据

    来自:帮助中心

    查看更多 →

  • 通过数据开发实现数据增量迁移

    创建CDM作业的节点配置完后,还需要在后面添加运行CDM作业的REST节点,具体请参见《云数据迁移API参考》中的“启动作业”章节。配置RestAPI节点的属性如下 : 节点名称:运行作业。 URL地址:其中project_id、cluster_id2. 配置“创建作业”节点中的保持一致,作业名需要配置为“d

    来自:帮助中心

    查看更多 →

  • 通过数据开发实现数据增量迁移

    创建CDM作业的节点配置完后,还需要在后面添加运行CDM作业的REST节点,具体请参见《云数据迁移API参考》中的“启动作业”章节。配置RestAPI节点的属性如下 : 节点名称:运行作业。 URL地址:其中project_id、cluster_id2. 配置“创建作业”节点中的保持一致,作业名需要配置为“d

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找维护。 父主题: 容量数据

    来自:帮助中心

    查看更多 →

  • 大容量数据库背景介绍

    子问题的解的合并。对于容量数据场景,数据库提供对数据进行“分治处理”的方式即分区,将逻辑数据库或其组成元素划分为不同的独立部分,每一个分区维护逻辑上存在相类似属性的数据,这样就把庞大的数据整体进行了切分,有利于数据的管理、查找维护。 父主题: 容量数据

    来自:帮助中心

    查看更多 →

  • 准备Impala开发和运行环境

    务平面网络互通。 安装JDK 开发运行环境的基本配置。版本要求如下: MRS集群的服务端客户端仅支持自带的Oracle JDK(版本为1.8),不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的,支持Oracle JDKIBM JDK。 Oracle JDK:支持1

    来自:帮助中心

    查看更多 →

  • 准备Impala开发和运行环境

    务平面网络互通。 安装JDK 开发运行环境的基本配置。版本要求如下: MRS集群的服务端客户端仅支持自带的Oracle JDK(版本为1.8),不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的,支持Oracle JDKIBM JDK。 Oracle JDK:支持1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了