数据仓库服务 GaussDB(DWS)

 

GaussDB(DWS)是一款具备分析及混合负载能力的分布式数据库,支持x86和Kunpeng硬件架构,支持行存储与列存储,提供GB~PB级数据分析能力、多模分析和实时处理能力,用于数据仓库、数据集市、实时分析、实时决策和混合负载等场景,广泛应用于汽车、制造、零售、物流、互联网、金融、政府、电信等行业分析决策系统

 
 

    数据仓库汇总层 更多内容
  • 数据仓库服务GaussDB(DWS)接入LTS

    数据仓库 服务 GaussDB (DWS)接入LTS 支持数据仓库GaussDB(DWS)日志接入LTS,具体接入方法请参见集群日志管理。 父主题: 使用云服务接入LTS

    来自:帮助中心

    查看更多 →

  • 接入Hive数据源

    名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 数据湖 分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/数据汇总/数据集市/应用数据/贴源数据。 JDBC字符串 Hive数据库的JDBC格式连接串,格式:jdbc:hive2://host:port/dbname。

    来自:帮助中心

    查看更多 →

  • ALM-16045 Hive数据仓库被删除

    产生告警的主机名。 对系统的影响 Hive默认数据仓库被删除,会导致在默认数据仓库中创建库、创建表失败,影响业务正常使用。 可能原因 Hive定时查看默认数据仓库的状态,发现Hive默认数据仓库被删除。 处理步骤 检查Hive默认数据仓库。 以root用户登录客户端所在节点,用户密

    来自:帮助中心

    查看更多 →

  • 如何查看导出后的考勤汇总数据?

    如何查看导出后的考勤汇总数据? 数据导出成功,您需要退出“考勤”应用,然后在业务页面找到并进入云空间,依次点击“我的文件”>“ WeLink Files”>“考勤报表”,便可找到您导出的考勤数据。建议您将考勤报表发送到PC端查看,效果更佳。 父主题: 考勤

    来自:帮助中心

    查看更多 →

  • 如何查看费用汇总数据环比率?

    2/02较2022/01的费用汇总数据环比率,则“查询周期数据”指2022-02-01到2022-02-28的消费数据,“上一周期数据”指2022-01-01到2022-01-31的消费数据。 以某用户2022/07和2022/06按产品类型费用汇总数据为例: 2022/07该用户使用“云硬盘

    来自:帮助中心

    查看更多 →

  • 数据资产

    任务创建完成后,“任务管理”界面中显示刚才创建的任务。 图6 采集任务5 单击操作栏中“运行”按钮运行任务元数据采集。 图7 采集任务6 DWI、DWR元数据采集,采用发布数据模型的时候采集的方式。 DM元数据按需采集。 任务监控 单击左侧导航树上“元数据采集>任务监控”,右侧区域显示任务监控界面,展示任务运行状态、日志等信息。

    来自:帮助中心

    查看更多 →

  • 管理配置中心

    是否启用公共:开关打开后,可将当前空间转化为公共空间。公共空间的码表和数据标准会共享给所有普通空间;普通空间可以查询、引用公共空间的码表和数据标准,但无法进行新增、修改和删除的操作。 当前空间转换为公共空间后,不支持回退为普通空间,其他普通空间也不能再转换为公共空间。请谨慎选择您的公共层空间。

    来自:帮助中心

    查看更多 →

  • 接入FI Hive数据源

    名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/数据汇总/数据集市/应用数据/贴源数据。 JDBC字符串 FI Hive数据库的JDBC格式连接串,格式:jdbc:hive2://host:port/dbname。

    来自:帮助中心

    查看更多 →

  • 接入自定义数据源

    扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/汇总数据/应用数据/贴源数据。 完成数据源接入配置后,单击“测试连接”,检测ABM与数据源之间是否能够连通。 若测试结果为“测试连接成功!”,则继续下一步。

    来自:帮助中心

    查看更多 →

  • ALM-16046 Hive数据仓库权限被修改

    对系统的影响 Hive默认数据仓库的权限被修改,会影响当前用户,用户组,其他用户在默认数据仓库中创建库、创建表等操作的操作权限范围。会扩大或缩小权限。 可能原因 Hive定时查看默认数据仓库的状态,发现Hive默认数据仓库权限发生更改。 处理步骤 检查Hive默认数据仓库权限情况。 以ro

    来自:帮助中心

    查看更多 →

  • 无法连接数据仓库集群时怎么处理?

    无法连接数据仓库集群时怎么处理? 检查原因 基本原因可能有以下几种: 集群状态是否正常。 连接命令是否正确,用户名、密码、IP地址或端口无误。 安装客户端的操作系统类型、版本是否正确。 安装客户端的操作是否正确。 如果是在公有云环境无法连接,还需要检查以下可能导致异常的原因: 弹

    来自:帮助中心

    查看更多 →

  • 数据在数据仓库服务中是否安全?

    数据在数据仓库服务中是否安全? 安全。在大数据时代,数据是用户的核心资产。公有云将继续秉承多年来向社会做出的“上不碰应用,下不碰数据”的承诺,保证用户核心资产的安全。这是对用户和社会的承诺,也是公有云及其伙伴商业成功的保障和基石。 数据仓库服务工程师对整个数据仓库系统进行了电信系

    来自:帮助中心

    查看更多 →

  • 作业开发

    在一个画布中,包括ODS、DWI、DWR基础数据,然后按照ODS作业 > DWI作业 > DWR基础数据作业顺序排列。 业务指标未用到的逻辑数据实体,将5个逻辑数据实体放在一个画布中,包括ODS、DWI,然后按照ODS作业 > DWI作业顺序排列,注意使用Dummy空算子进行作业间的关联。

    来自:帮助中心

    查看更多 →

  • 接入本地文件数据源

    名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/数据汇总/数据集市/应用数据/贴源数据。 上传文件 (新版)单击“上传文件”,上传已填写的模板文件,模板支持在信息架构列表中下载。 支持文件类型为:

    来自:帮助中心

    查看更多 →

  • 接入SFTP数据源

    扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/汇总数据/应用数据/贴源数据。 连接地址 填写数据库的连接IP地址。 端口 填写数据库的端口。 目录 对应S FTP服务器 文件目录地址 用户名

    来自:帮助中心

    查看更多 →

  • 接入本地文件数据源

    扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/汇总数据/应用数据/贴源数据。 上传文件 单击“上传文件”,上传本地文件配置文件。 支持文件类型为:.yaml,.json, 文件个数最大值为:20

    来自:帮助中心

    查看更多 →

  • 产品功能

    数据架构:数据建模可视化、自动化、智能化 DataArts Studio 数据架构践行 数据治理 方法论,将数据治理行为可视化,打通数据基础汇总、集市的数据处理链路,落地数据标准和数据资产,通过关系建模、维度建模实现数据标准化,通过统一指标平台建设,实现规范化指标体系,消除歧义、统

    来自:帮助中心

    查看更多 →

  • 接入SFTP数据源

    名称,方便您快速识别和查找。 描述 填写数据源的描述信息。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/数据汇总/数据集市/应用数据/贴源数据。 支持导出 如选择为“是”,则支持导出新版模型目录应用元模型的实体。 仅新版本的SFTP数据源支持导出选项。

    来自:帮助中心

    查看更多 →

  • 无法成功创建数据仓库集群时怎么处理?

    无法成功创建数据仓库集群时怎么处理? 检查原因 检查是否用户已经没有配额创建新的数据仓库集群。 联系服务人员 如果无法确定原因并解决问题,请提交工单反馈问题。您可以登录管理控制台,在右上方单击“工单>新建工单”填写并提交工单。 父主题: 集群管理

    来自:帮助中心

    查看更多 →

  • Hive基本原理

    HCatalog建立在Hive Metastore之上,具有Hive的DDL能力。从另外一种意义上说,HCatalog还是Hadoop的表和存储管理,它使用户能够通过使用不同的数据处理工具(比如MapReduce),更轻松地在网格上读写HDFS上的数据,HCatalog还能为这些数据处理

    来自:帮助中心

    查看更多 →

  • 接入APPCUBE数据源

    扩展ABM集群 选择对应的扩展ABM集群实例来采集该数据源的模型数据。 数据湖分层 选择对应的数据湖分层:业务数据/操作数据/明细数据/汇总数据/应用数据/贴源数据。 连接地址 仅当“是否使用JDBC字符串”选择“否”时需要配置。 填写数据库的连接IP地址。 端口 仅当“是

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了