数据仓库服务 GaussDB(DWS)

 

GaussDB(DWS)是一款具备分析及混合负载能力的分布式数据库,支持x86和Kunpeng硬件架构,支持行存储与列存储,提供GB~PB级数据分析能力、多模分析和实时处理能力,用于数据仓库、数据集市、实时分析、实时决策和混合负载等场景,广泛应用于汽车、制造、零售、物流、互联网、金融、政府、电信等行业分析决策系统

 
 

    数据仓库事实表维表主题表 更多内容
  • Hbase维表

    Boolean 是否设置异步。 lookup.cache.max-rows 否 -1 Long 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。 默认示不使用该配置。 lookup.cache.ttl 否 -1 Long 配置,缓存超时时间,超过该时

    来自:帮助中心

    查看更多 →

  • 查询主题列表

    查询主题 功能介绍 分页查询Topic列,Topic列按照Topic创建时间进行降序排列。分页查询可以指定offset以及limit。如果不存在Topic,则返回空列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/notifications/topics

    来自:帮助中心

    查看更多 →

  • 查询主题列表

    查询主题 功能介绍 该接口用于查询指定RocketMQ实例的Topic列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/instances/{instance_id}/topics 1 路径参数 参数 是否必选 参数类型 描述 project_id

    来自:帮助中心

    查看更多 →

  • 查找主题列表

    : 维度 DIMENSION_TABLE_ATTRIBUTE: 维度属性 DIRECTORY: 目录 FACT_ATTRIBUTE: 事实属性 FACT_DIMENSION: 事实维度 FACT_ LOG IC_TABLE: 事实 FACT_MEASURE: 事实度量 FUNCTION:

    来自:帮助中心

    查看更多 →

  • 查找主题列表(新)

    : 维度 DIMENSION_TABLE_ATTRIBUTE: 维度属性 DIRECTORY: 目录 FACT_ATTRIBUTE: 事实属性 FACT_DIMENSION: 事实维度 FACT_LOGIC_TABLE: 事实 FACT_MEASURE: 事实度量 FUNCTION:

    来自:帮助中心

    查看更多 →

  • 运维报表

    查看运 推送运主题: 运审计

    来自:帮助中心

    查看更多 →

  • 创建DWS维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示 connector.lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 connector.lookup.cache.ttl 否 配置,缓存超时时间,超

    来自:帮助中心

    查看更多 →

  • 创建JDBC维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示。 connector.lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 connector.lookup.cache.ttl 否 配置,缓存超时时间,超

    来自:帮助中心

    查看更多 →

  • 创建DWS维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示 connector.lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 connector.lookup.cache.ttl 否 配置,缓存超时时间,超

    来自:帮助中心

    查看更多 →

  • 创建Hbase维表

    创建Hbase 功能描述 创建Hbase用于与输入流连接。 前提条件 该场景作业需要运行在 DLI 的独享队列上,因此要与HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《 数据湖探索 用户指南》中增强型跨源连接章节。 如何

    来自:帮助中心

    查看更多 →

  • Redis维表

    连接器应忽略更新插入/撤回流模式下的收回消息。 key-column 否 无 String Redis schema的key 示例 从Kafka源中读取数据,将Redis作为,并将二者生成的宽信息写入Kafka结果中,其具体步骤如下: 参考增强型跨源连接,根据Redis和Kafka所在的虚拟

    来自:帮助中心

    查看更多 →

  • Redis维表

    作为redis时,是否使用异步 I/O。 pwd_auth_name 否 无 String DLI侧创建的Password类型的跨源认证名称。 使用跨源认证则无需在作业中配置和账号密码。 示例 从Kafka源中读取数据,将Redis作为,并将二者生成的宽信息写入Kafka结果表中,其具体步骤如下:

    来自:帮助中心

    查看更多 →

  • 创建Hbase维表

    创建Hbase 功能描述 创建Hbase用于与输入流连接。 前提条件 该场景作业需要运行在DLI的独享队列上,因此要与HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《 数据湖 探索用户指南》中增强型跨源连接章节。 如何

    来自:帮助中心

    查看更多 →

  • 创建JDBC维表

    每次从数据库拉取数据的行数。默认值为0,示忽略该提示。 connector.lookup.cache.max-rows 否 配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1示不使用缓存。 connector.lookup.cache.ttl 否 配置,缓存超时时间,超

    来自:帮助中心

    查看更多 →

  • Redis维表

    作为redis时,是否使用异步 I/O。 pwd_auth_name 否 无 String DLI侧创建的Password类型的跨源认证名称。 使用跨源认证则无需在作业中配置和账号密码。 示例 从Kafka源中读取数据,将Redis作为,并将二者生成的宽信息写入Kafka结果表中,其具体步骤如下:

    来自:帮助中心

    查看更多 →

  • 查询主题消费组列表

    查询主题消费组列 功能介绍 查询主题消费组列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/instances/{instance_id}/topics/{topic}/groups 1 路径参数 参数 是否必选 参数类型 描述 project_id

    来自:帮助中心

    查看更多 →

  • 获取数据仓库列表信息

    获取 数据仓库 信息 功能介绍 获取数据仓库 URI GET /v1.0/{project_id}/common/warehouses 1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目id,获取方法请参见获取项目ID 2 Query参数

    来自:帮助中心

    查看更多 →

  • 推送运维报表

    手动导出 登录云 堡垒机 系统。 选择“审计 > 运”,进入系统报查看页面。 单击右上角的“报导出”,弹出运导出配置窗口。 配置运推送方式、时间和文件格式。 1 导出运参数说明 参数 说明 展示粒度 选择运趋势图呈现粒度。 可以选择“按小时”、“按天”、“按周”、“按月”。

    来自:帮助中心

    查看更多 →

  • 查看运维报表

    查看运用户通过云堡垒机登录资源,以及进行运操作后,审计管理员可查看运详细报,主要涵盖“运时间分布”、“资源访问次数”、“会话时长”、“来源IP访问数”、“会话协同”、“双人授权”、“命令拦截”、“字符命令数”和“传输文件数”等趋势图和详细数据。 约束限制 趋势

    来自:帮助中心

    查看更多 →

  • 查询主题的授权用户列表

    查询主题的授权用户列 功能介绍 查询主题的授权用户列。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/instances/{instance_id}/topics/{topic}/accesspolicy 1 路径参数 参数 是否必选 参数类型

    来自:帮助中心

    查看更多 →

  • DWS维表(不推荐使用)

    min,s,ms等,默认为ms。 默认示不使用该配置。 lookup.max-retries 否 3 Integer 配置,数据拉取最大重试次数。 示例 从Kafka源中读取数据,将DWS作为,并将二者生成的宽信息写入Kafka结果中,其具体步骤如下: 参考增强型跨

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了