数据仓库服务 GaussDB(DWS)

 

GaussDB(DWS)是一款具备分析及混合负载能力的分布式数据库,支持x86和Kunpeng硬件架构,支持行存储与列存储,提供GB~PB级数据分析能力、多模分析和实时处理能力,用于数据仓库、数据集市、实时分析、实时决策和混合负载等场景,广泛应用于汽车、制造、零售、物流、互联网、金融、政府、电信等行业分析决策系统

 
 

    数据仓库事实表维表主题表 更多内容
  • 创建DWS维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示 connector.lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 connector.lookup.cache.ttl 否 配置,缓存超时时间,超

    来自:帮助中心

    查看更多 →

  • Redis维表

    连接器应忽略更新插入/撤回流模式下的收回消息。 key-column 否 无 String Redis schema的key 示例 从Kafka源中读取数据,将Redis作为,并将二者生成的宽信息写入Kafka结果中,其具体步骤如下: 参考增强型跨源连接,根据Redis和Kafka所在的虚拟

    来自:帮助中心

    查看更多 →

  • 创建Hbase维表

    创建Hbase 功能描述 创建Hbase用于与输入流连接。 前提条件 该场景作业需要运行在 DLI 的独享队列上,因此要与HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《 数据湖探索 用户指南》中增强型跨源连接章节。 如何

    来自:帮助中心

    查看更多 →

  • 运维报表

    查看运 推送运主题: 运审计

    来自:帮助中心

    查看更多 →

  • Redis维表

    作为redis时,是否使用异步 I/O。 pwd_auth_name 否 无 String DLI侧创建的Password类型的跨源认证名称。 使用跨源认证则无需在作业中配置和账号密码。 示例 从Kafka源中读取数据,将Redis作为,并将二者生成的宽信息写入Kafka结果表中,其具体步骤如下:

    来自:帮助中心

    查看更多 →

  • 查询主题消费组列表

    查询主题消费组列 功能介绍 查询主题消费组列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/instances/{instance_id}/topics/{topic}/groups 1 路径参数 参数 是否必选 参数类型 描述 project_id

    来自:帮助中心

    查看更多 →

  • 获取数据仓库列表信息

    获取 数据仓库 信息 功能介绍 获取数据仓库 URI GET /v1.0/{project_id}/common/warehouses 1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目id,获取方法请参见获取项目ID 2 Query参数

    来自:帮助中心

    查看更多 →

  • 查看运维报表

    查看运用户通过 堡垒机 登录资源,以及进行运操作后,审计管理员可查看运详细报,主要涵盖“运时间分布”、“资源访问次数”、“会话时长”、“来源IP访问数”、“会话协同”、“双人授权”、“命令拦截”、“字符命令数”和“传输文件数”等趋势图和详细数据。 约束限制 趋势图

    来自:帮助中心

    查看更多 →

  • 推送运维报表

    手动导出 登录堡垒机系统。 选择“审计 > 运”,进入系统报查看页面。 单击右上角的“报导出”,弹出运导出配置窗口。 配置运推送方式、时间和文件格式。 1 导出运参数说明 参数 说明 展示粒度 选择运趋势图呈现粒度。 可以选择“按小时”、“按天”、“按周”、“按月”。

    来自:帮助中心

    查看更多 →

  • 查询主题的授权用户列表

    查询主题的授权用户列 功能介绍 查询主题的授权用户列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/instances/{instance_id}/topics/{topic}/accesspolicy 1 路径参数 参数 是否必选 参数类型

    来自:帮助中心

    查看更多 →

  • DWS维表(不推荐使用)

    min,s,ms等,默认为ms。 默认示不使用该配置。 lookup.max-retries 否 3 Integer 配置,数据拉取最大重试次数。 示例 从Kafka源中读取数据,将DWS作为,并将二者生成的宽信息写入Kafka结果中,其具体步骤如下: 参考增强型跨

    来自:帮助中心

    查看更多 →

  • 分区表运维管理

    分区管理 分区管理包括分区管理、分区管理、分区索引管理和分区业务并发支持等。 分区管理:也称分区级DDL,包括新增(Add)、删除(Drop)、交换(Exchange)、清空(Truncate)、分割(Split)、合并(Merge)、移动(Move)、重命名(Rename)共8种。

    来自:帮助中心

    查看更多 →

  • 分区表运维管理

    分区管理 分区管理包括分区管理、分区管理、分区索引管理和分区业务并发支持等。 分区管理:也称分区级DDL,包括新增(Add)、删除(Drop)、交换(Exchange)、清空(Truncate)、分割(Split)、合并(Merge)、移动(Move)、重命名(Rename)共8种。

    来自:帮助中心

    查看更多 →

  • 在创建原子指标的时候,只能选择事实表。对于基于维度表创建,如何理解呢?

    在创建原子指标的时候,只能选择事实。对于基于维度创建,如何理解呢? 在标准 数据治理 模型下,事实中的维度信息,都来自与维度。因此创建原子指标的时候,是通过事实中来源于维度的属性来关联维度的。 如果需要基于维度信息生成原子指标,需要先通过维度创建事实,再通过原子指标关联事实中的维度属性来创建。

    来自:帮助中心

    查看更多 →

  • 分区表运维管理

    分区管理 分区管理包括分区管理、分区管理、分区索引管理和分区业务并发支持等。 分区管理:也称分区级DDL,包括新增(Add)、删除(Drop)、交换(Exchange)、清空(Truncate)、分割(Split)、合并(Merge)、移动(Move)、重命名(Rename)共8种。

    来自:帮助中心

    查看更多 →

  • 分区表运维管理

    分区管理 分区管理包括分区管理、分区管理、分区索引管理和分区业务并发支持等。 分区管理:也称分区级DDL,包括新增(Add)、删除(Drop)、交换(Exchange)、清空(Truncate)、分割(Split)、合并(Merge)、移动(Move)、重命名(Rename)共8种。

    来自:帮助中心

    查看更多 →

  • 获取数据仓库的数据列表

    获取数据仓库的数据列 功能介绍 获取数据仓库的数据列 URI POST /v1.0/{project_id}/common/warehouses/{data_warehouse_id}/data 1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String

    来自:帮助中心

    查看更多 →

  • 分区表(母表)

    分区(母) 实际对用户体现的,用户对该进行常规DML语句的增、删、查、改操作。通常使用在建DDL语句显式的使用PARTITION BY语句进行定义,创建成功以后在pg_class中新增一个entry,并且parttype列内容为'p',明该entry为分区的母。分

    来自:帮助中心

    查看更多 →

  • 分区表(母表)

    分区(母) 实际对用户体现的,用户对该进行常规DML语句的增、删、查、改操作。通常使用在建DDL语句显式的使用PARTITION BY语句进行定义,创建成功以后在pg_class中新增一个entry,并且parttype列内容为'p'(一级分区)或者's'(二级分区)

    来自:帮助中心

    查看更多 →

  • 管理表及表数据

    重命名 右键单击,选择“重命名”重命名。弹出“重命名”对话框,提示输入新名称输入名称。 输入名,单击“确定”。“对象浏览器”中显示更新的名称。 分区ORC不支持此操作。 删除 右键单击,选择“删除”选项来删除。可按下Ctrl+左键逐个选择对象,批量删除。 该

    来自:帮助中心

    查看更多 →

  • 查找表模型列表

    : 维度 DIMENSION_TABLE_ATTRIBUTE: 维度属性 DIRECTORY: 目录 FACT_ATTRIBUTE: 事实属性 FACT_DIMENSION: 事实维度 FACT_ LOG IC_TABLE: 事实 FACT_MEASURE: 事实度量 FUNCTION:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了