华为云

面向未来的智能世界,数字化是企业发展的必由之路。数字化成功的关键是以云原生的思维践行云原生,全数字化、全云化、AI驱动,一切皆服务。

华为云将持续创新,携手客户、合作伙伴和开发者,致力于让云无处不在,让智能无所不及,共建智能世界云底座。

 
 

    华为云 orc 更多内容
  • Hive性能调优

    Hive性能调优 建立Hive表分区提升查询效率 Hive Join数据优化 Hive Group By语句优化 Hive ORC数据存储优化 Hive SQL逻辑优化 使用Hive CBO功能优化多表查询效率 父主题: 使用Hive

    来自:帮助中心

    查看更多 →

  • 创建外部服务器

    创建外部 服务器 HDFS创建外部服务器请参见手动创建外部服务器。 父主题: 导出ORC数据到 MRS

    来自:帮助中心

    查看更多 →

  • 从OBS并行导入数据

    从OBS并行导入数据 关于OBS并行导入 从OBS导入 CS V、TXT数据 从OBS导入ORC、CARBONDATA数据 父主题: 导入数据

    来自:帮助中心

    查看更多 →

  • 导入导出

    使用GDS从远端服务器导入数据 查看或导入MRS的Hive数据 跨集群访问HiveMetaStore元数据 导入远端DWS数据源最佳实践 导出ORC数据到MRS

    来自:帮助中心

    查看更多 →

  • REFRESH MATERIALIZED VIEW

    MATERIALIZED VIEW materialized_view_name 描述 用于更新物化视图的数据。 示例 hetuengine:tpcds_orc_hive_2> refresh materialized view mv.tpcds.test; REFRESH MATERIALIZED

    来自:帮助中心

    查看更多 →

  • Spark SQL企业级能力增强

    Spark SQL企业级能力增强 配置矢量化读取ORC数据 配置过滤掉分区表中路径不存在的分区 配置Drop Partition命令支持批量删除 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 父主题: 使用Spark/Spark2x

    来自:帮助中心

    查看更多 →

  • 数据源为Hive时支持哪些数据格式?

    数据源为Hive时支持哪些数据格式? 云数据迁移 服务支持从Hive数据源读写的数据格式包括SequenceFile、TextFile、ORC、Parquet。 父主题: 功能类

    来自:帮助中心

    查看更多 →

  • GAUSS-04751 -- GAUSS-04760

    解决办法:检查下盘临时文件是否已经损坏——读写不一致。 GAUSS-04755: "Only ORC is supported for now." SQLSTATE: 0A000 错误原因:系统内部错误。HDFS表仅支持ORC格式。 解决办法:请联系技术支持工程师提供技术支持。 GAUSS-04756:

    来自:帮助中心

    查看更多 →

  • zstd的压缩比有什么优势?

    zstd的压缩比有什么优势? 问: zstd的压缩比有什么优势? 答: zstd的压缩比orc好一倍,是开源的。 具体请参见https://github.com/L-Angel/compress-demo。 CarbonData不支持lzo,MRS里面有集成zstd。 父主题: 产品咨询类

    来自:帮助中心

    查看更多 →

  • 配置Hive目的端参数

    “执行Analyze语句”参数配置仅用于单表迁移场景。 是 Hive作为目的端时,会自动创建存储格式为ORC的表。 由于文件格式限制,当前仅支持ORC与Parquet格式写入复杂类型。 源端Hive包含array和map类型时,目的端表格式只支持ORC和parquet复杂类型。若目的端表格式为RC和TEXT时,会对源数据进行处理,支持成功写入。

    来自:帮助中心

    查看更多 →

  • 规划导出数据

    MRS导出支持的数据类型请参见表2。 HDFS导出数据准备:HDFS导出准备即配置MRS,具体信息可参考《 MapReduce服务 用户指南》。 父主题: 导出ORC数据到MRS

    来自:帮助中心

    查看更多 →

  • Hive数据存储及加密配置

    Colocation存储Hive表 配置Hive分区元数据冷热存储 Hive支持ZSTD压缩格式 使用ZSTD_JNI压缩算法压缩Hive ORC表 配置Hive列加密功能 父主题: 使用Hive

    来自:帮助中心

    查看更多 →

  • 预留参数

    enable_constraint_optimization enable_hadoop_env enable_hdfs_predicate_pushdown enable_orc_cache schedule_splits_threshold backend_version undo_zone_count version_retention_age

    来自:帮助中心

    查看更多 →

  • 不同版本的Hive之间是否可以兼容?

    1版本为UTC时间,Hive 1.2版本为当地时区时间。 驱动不兼容:Hive 3.1和Hive 1.2版本的JDBC驱动不兼容。 Hive 3.1对ORC文件列名大小写,下划线敏感。 Hive 3.1版本列中不能有名为time的列。 父主题: 产品咨询类

    来自:帮助中心

    查看更多 →

  • 场景介绍

    DLI 创建OBS外表,对OBS表数据存储格式有所要求: 使用DataSource语法创建OBS表时,支持orc,parquet,json,csv,carbon,avro类型。 使用Hive语法创建OBS表时,支持TEXTFILE, AVRO, ORC, SEQUENCEFILE, RCFILE, PARQUET, CARBON类型。

    来自:帮助中心

    查看更多 →

  • 预留参数

    enable_constraint_optimization enable_hadoop_env enable_hdfs_predicate_pushdown enable_orc_cache schedule_splits_threshold backend_version undo_zone_count version_retention_age

    来自:帮助中心

    查看更多 →

  • 预留参数

    dfs_partition_directory_length enable_fstream enable_hdfs_predicate_pushdown enable_orc_cache schedule_splits_threshold enable_constraint_optimization enable_hadoop_env

    来自:帮助中心

    查看更多 →

  • 预留参数

    dfs_partition_directory_length enable_fstream enable_hdfs_predicate_pushdown enable_orc_cache schedule_splits_threshold enable_constraint_optimization enable_hadoop_env

    来自:帮助中心

    查看更多 →

  • 贸易数据上云场景介绍

    DLI创建OBS外表,对OBS表数据存储格式有所要求: 使用DataSource语法创建OBS表时,支持orc,parquet,json,csv,carbon,avro类型。 使用Hive语法创建OBS表时,支持TEXTFILE, AVRO, ORC, SEQUENCEFILE, RCFILE, PARQUET, CARBON类型。

    来自:帮助中心

    查看更多 →

  • GaussDB(DWS)入门实践

    本实践演示过程为:以gsql作为数据库客户端,gsql安装在ECS,通过gsql连接DWS,再通过外表方式导入远端DWS的数据。 导出ORC数据到MRS GaussDB (DWS)数据库支持通过HDFS外表导出ORC格式数据至MRS,通过外表设置的导出模式、导出数据格式等信息来指定导出的数据文件,利用多DN并行的方

    来自:帮助中心

    查看更多 →

  • Sqoop常见问题

    连接postgresql或者gaussdb时报错 使用hive-table方式同步数据到obs上的hive表报错 使用hive-table方式同步数据到orc表或者parquet表失败 使用hive-table方式同步数据报错 使用hcatalog方式同步hive parquet表报错 使用Hc

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了