数据仓库服务 GaussDB(DWS)

 

GaussDB(DWS)是一款具备分析及混合负载能力的分布式数据库,支持x86和Kunpeng硬件架构,支持行存储与列存储,提供GB~PB级数据分析能力、多模分析和实时处理能力,用于数据仓库、数据集市、实时分析、实时决策和混合负载等场景,广泛应用于汽车、制造、零售、物流、互联网、金融、政府、电信等行业分析决策系统

 
 

    数据仓库主题事实表维表 更多内容
  • 事实表接口

    事实接口 查找事实 删除事实 查看事实详情 查看逆向事实任务 父主题: 数据架构API

    来自:帮助中心

    查看更多 →

  • 删除事实表

    写和校验。 3 请求Body参数 参数 是否必选 参数类型 描述 ids 是 Array of strings ID列,ID字符串。 del_types 否 String 删除类型。 枚举值: PHYSICAL_TABLE: 是否删除数据库物理,只针对能物化的生效(配置此值则表示删除)

    来自:帮助中心

    查看更多 →

  • 新建事实表

    ,不勾选则无法同步。 管理事实 事实创建好之后,进入数据架构的“维度建模 > 事实”页面,您可以对事实进行编辑、发布、下线、查看发布历史或删除操作。 图5 事实管理 编辑事实事实中,找到需要编辑的事实,单击“编辑”,进入编辑事实页面。 根据实际需要编辑相关内容。

    来自:帮助中心

    查看更多 →

  • 查看事实表详情

    : 维度 DIMENSION_TABLE_ATTRIBUTE: 维度属性 DIRECTORY: 目录 FACT_ATTRIBUTE: 事实属性 FACT_DIMENSION: 事实维度 FACT_ LOG IC_TABLE: 事实 FACT_MEASURE: 事实度量 FUNCTION:

    来自:帮助中心

    查看更多 →

  • 查找事实表

    : 维度 DIMENSION_TABLE_ATTRIBUTE: 维度属性 DIRECTORY: 目录 FACT_ATTRIBUTE: 事实属性 FACT_DIMENSION: 事实维度 FACT_LOGIC_TABLE: 事实 FACT_MEASURE: 事实度量 FUNCTION:

    来自:帮助中心

    查看更多 →

  • 查看逆向事实表任务

    查看逆向事实任务 功能介绍 查看逆向事实任务。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/design/fact-logic-tables/database 1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String

    来自:帮助中心

    查看更多 →

  • 查询主题列表

    查询主题 功能介绍 分页查询Topic列,Topic列按照Topic创建时间进行降序排列。分页查询可以指定offset以及limit。如果不存在Topic,则返回空列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/notifications/topics

    来自:帮助中心

    查看更多 →

  • 查找主题列表

    : 维度 DIMENSION_TABLE_ATTRIBUTE: 维度属性 DIRECTORY: 目录 FACT_ATTRIBUTE: 事实属性 FACT_DIMENSION: 事实维度 FACT_LOGIC_TABLE: 事实 FACT_MEASURE: 事实度量 FUNCTION:

    来自:帮助中心

    查看更多 →

  • 查询主题列表

    查询主题 功能介绍 该接口用于查询指定RocketMQ实例的Topic列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/instances/{instance_id}/topics 1 路径参数 参数 是否必选 参数类型 描述 project_id

    来自:帮助中心

    查看更多 →

  • DWS维表

    使用跨源认证则无需在作业中配置账号和密码。 示例 从Kafka源中读取数据,将DWS作为,并将二者生成的宽信息写入Kafka结果中,其具体步骤如下: 参考增强型跨源连接,在 DLI 上根据DWS和Kafka所在的虚拟私有云和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。

    来自:帮助中心

    查看更多 →

  • DWS维表

    使用跨源认证则无需在作业中配置账号和密码。 示例 从Kafka源中读取数据,将DWS作为,并将二者生成的宽信息写入Kafka结果中,其具体步骤如下: 参考增强型跨源连接,在DLI上根据DWS和Kafka所在的虚拟私有云和子网分别创建相应的增强型跨源连接,并绑定所要使用的Flink弹性资源池。

    来自:帮助中心

    查看更多 →

  • 创建维表

    创建 创建JDBC 创建DWS 创建Hbase主题: 数据定义语句DDL

    来自:帮助中心

    查看更多 →

  • 创建维表

    创建 创建Redis 创建RDS主题: Flink SQL语法参考(不再演进,推荐使用Flink OpenSource SQL)

    来自:帮助中心

    查看更多 →

  • 做维表

    从Kafka源表中读取数据,将 GaussDB (DWS)作为,并将二者生成的宽信息写入print结果中,其具体步骤如下: 连接GaussDB(DWS)数据库实例,在GaussDB(DWS)中创建相应的,作为名为area_info,SQL语句如下: 1 2 3 4 5 6 7 8 9 create table

    来自:帮助中心

    查看更多 →

  • JDBC维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示。 lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 lookup.cache.ttl 否 配置,缓存超时时间,超过该时间的数据会被剔除。格式为:{length

    来自:帮助中心

    查看更多 →

  • 创建维表

    创建 DWS Hbase JDBC Redis主题: 数据定义语句DDL

    来自:帮助中心

    查看更多 →

  • 创建维表

    创建 DWS Hbase JDBC Redis主题: 数据定义语句DDL

    来自:帮助中心

    查看更多 →

  • JDBC维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示。 lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 lookup.cache.ttl 否 配置,缓存超时时间,超过该时间的数据会被剔除。格式为:{length

    来自:帮助中心

    查看更多 →

  • Hbase维表

    Boolean 是否设置异步。 lookup.cache.max-rows 否 -1 Long 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。 默认示不使用该配置。 lookup.cache.ttl 否 -1 Long 配置,缓存超时时间,超过该时

    来自:帮助中心

    查看更多 →

  • Hbase维表

    Boolean 是否设置异步。 lookup.cache.max-rows 否 -1 Long 配置,缓存的最大行数,超过该值时,缓存中最先添加的条目将被标记为过期。 默认示不使用该配置。 lookup.cache.ttl 否 -1 Long 配置,缓存超时时间,超过该

    来自:帮助中心

    查看更多 →

  • 创建维表

    创建 创建JDBC 创建DWS 创建Hbase主题: 数据定义语句DDL

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了