中软国际数据治理专业服务解决方案实践

中软国际数据治理专业服务解决方案实践

    carbondata数据 更多内容
  • CarbonData表用户权限说明

    CarbonData表用户权限说明 下表提供了对CarbonData Table执行相应操作所需的Hive ACL特权的详细信息。 前提条件 已经设置了表5或表6中Carbon相关参数。 Hive ACL权限 表1 CarbonData表级操作所需的Hive ACL权限 场景 所需权限

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData样例程序

    Spark同步HBase数据CarbonData样例程序 Spark同步HBase数据CarbonData样例程序开发思路 Spark同步HBase数据CarbonData(Java) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData样例程序

    Spark同步HBase数据CarbonData样例程序 Spark同步HBase数据CarbonData开发思路 Spark同步HBase数据CarbonData(Java) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData样例程序

    Spark同步HBase数据CarbonData样例程序 Spark同步HBase数据CarbonData开发思路 Spark同步HBase数据CarbonData(Java) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 创建CarbonData Table的建议

    创建CarbonData Table的建议 操作场景 本章节根据超过50个测试用例总结得出建议,帮助用户创建拥有更高查询性能的CarbonData表。 表1 CarbonData表中的列 Column name Data type Cardinality Attribution msname

    来自:帮助中心

    查看更多 →

  • 删除CarbonData表Segments

    删除CarbonData表Segments 操作场景 如果用户将错误数据加载到表中,或者数据加载后出现许多错误记录,用户希望修改并重新加载数据时,可删除对应的segment。可使用segment ID来删除segment,也可以使用加载数据的时间来删除segment。 删除seg

    来自:帮助中心

    查看更多 →

  • 从OBS并行导入数据

    从OBS并行导入数据 关于OBS并行导入 从OBS导入 CS V、TXT数据 从OBS导入ORC、CARBONDATA数据 父主题: 导入数据

    来自:帮助中心

    查看更多 →

  • CREATE TABLE

    一旦block大小达到配置值,写入程序将启动新的CarbonData数据的block。数据以页面大小(32000个记录)的倍数写入,因此边界在字节级别上不严格。 如果新页面跨越配置block的边界,则不会将其写入当前block,而是写入新的block。 TBLPROPERTIES('table_blocksize'='128')

    来自:帮助中心

    查看更多 →

  • CREATE TABLE

    一旦block大小达到配置值,写入程序将启动新的CarbonData数据的block。数据以页面大小(32000个记录)的倍数写入,因此边界在字节级别上不严格。 如果新页面跨越配置block的边界,则不会将其写入当前block,而是写入新的block。 TBLPROPERTIES('table_blocksize'='128')

    来自:帮助中心

    查看更多 →

  • LOAD DATA

    有两种完全不同的方式处理Bad Data: 按照原始数据加载所有数据,之后进行除错处理。 在进入数据源的过程中,可以清理或擦除Bad Data,或者在发现Bad Data时让数据加载失败。 有多个选项可用于在CarbonData数据加载过程中清除源数据。对于CarbonData数据中的Bad Records管理,请参见表2。

    来自:帮助中心

    查看更多 →

  • 删除CarbonData表Segments

    删除CarbonData表Segments 操作场景 如果用户将错误数据加载到表中,或者数据加载后出现许多错误记录,用户希望修改并重新加载数据时,可删除对应的segment。可使用segment ID来删除segment,也可以使用加载数据的时间来删除segment。 删除seg

    来自:帮助中心

    查看更多 →

  • 合并CarbonData表Segments

    合并CarbonData表Segments 操作场景 频繁的数据获取导致在存储目录中产生许多零碎的CarbonData文件。由于数据排序只在每次加载时进行,所以,索引也只在每次加载时执行。这意味着,对于每次加载都会产生一个索引,随着数据加载数量的增加,索引的数量也随之增加。由于每

    来自:帮助中心

    查看更多 →

  • CarbonData性能调优

    CarbonData性能调优 CarbonData调优思路 CarbonData性能调优常见配置参数 创建CarbonData Table的建议 父主题: 使用CarbonData MRS 3.x及之后版本)

    来自:帮助中心

    查看更多 →

  • CarbonData基本原理

    Table中的数据被分成若干个CarbonData数据文件,每一次数据查询时,CarbonData Engine模块负责执行数据集的读取、过滤等实际任务。CarbonData Engine作为Spark Executor进程的一部分运行,负责处理数据文件块的一个子集。 Table数据数据存储

    来自:帮助中心

    查看更多 →

  • 合并CarbonData表Segments

    合并CarbonData表Segments 操作场景 频繁的数据获取导致在存储目录中产生许多零碎的CarbonData文件。由于数据排序只在每次加载时进行,所以,索引也只在每次加载时执行。这意味着,对于每次加载都会产生一个索引,随着数据加载数量的增加,索引的数量也随之增加。由于每

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData样例程序开发思路

    Spark同步HBase数据CarbonData样例程序开发思路 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步到CarbonData表中,用于分析型查询业务。 数据规划 创建HBase表,构造数据,列需要包含key,modify_time,valid

    来自:帮助中心

    查看更多 →

  • 从零开始使用CarbonData

    连接到Spark 在对CarbonData进行任何操作之前,需要先连接到Spark。 创建CarbonData表 连接CarbonData之后,需要创建CarbonData Table,用于加载数据和执行查询操作。 加载数据CarbonData表 用户从HDFS中的CSV文件加载数据到所创建的表中。

    来自:帮助中心

    查看更多 →

  • CarbonData表操作并发语法说明

    CarbonData表操作并发语法说明 DDL和DML中的操作,执行前,需要获取对应的锁,各操作需要获取锁的情况见表1 操作获取锁一览表,√表示需要获取该锁,一个操作仅在获取到所有需要获取的锁后,才能继续执行。 任意两个操作是否可以并发执行,可以通过如下方法确定:表1两行代表两个

    来自:帮助中心

    查看更多 →

  • 使用CarbonData(MRS 3.x及之后版本)

    使用CarbonData(MRS 3.x及之后版本) CarbonData数据类型概述 CarbonData表用户权限说明 使用Spark客户端创建CarbonDataCarbonData数据分析 CarbonData性能调优 CarbonData常见配置参数 CarbonData语法参考

    来自:帮助中心

    查看更多 →

  • CarbonData Segment API语法说明

    CarbonData Segment API语法说明 本章节描述Segment的API以及使用方法,所有方法在org.apache.spark.util.CarbonSegmentUtil类中。 如下方法已废弃: /** * Returns the valid segments

    来自:帮助中心

    查看更多 →

  • CarbonData首查优化工具

    CarbonData首查优化工具 工具介绍 CarbonData的首次查询较慢,对于实时性要求较高的节点可能会造成一定的时延。 本工具主要提供以下功能: 对查询时延要求较高的表进行首次查询预热。 工具使用 下载安装客户端,例如安装目录为“/opt/client”。进入目录“/op

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了