华为云

面向未来的智能世界,数字化是企业发展的必由之路。数字化成功的关键是以云原生的思维践行云原生,全数字化、全云化、AI驱动,一切皆服务。

华为云将持续创新,携手客户、合作伙伴和开发者,致力于让云无处不在,让智能无所不及,共建智能世界云底座。

 
 

    华为hive使用 更多内容
  • Hive同步数据报错HoodieHiveSyncException

    Hive同步数据报错HoodieHiveSyncException 问题 Hive同步数据时报错: com.uber.hoodie.hive.HoodieHiveSyncException: Could not convert field Type from <type1> to

    来自:帮助中心

    查看更多 →

  • Hive同步数据报错HoodieHiveSyncException

    Hive同步数据报错HoodieHiveSyncException 问题 Hive同步数据时报错: com.uber.hoodie.hive.HoodieHiveSyncException: Could not convert field Type from <type1> to

    来自:帮助中心

    查看更多 →

  • 使用个人华为帐号登录OrgID

    使用个人华为帐号登录OrgID 本节将为您介绍如何使用个人华为帐号登录OrgID。 前提条件 已开通OrgID服务。 操作步骤 访问OrgID。 输入个人华为帐号和密码,可以输入帐号名、手机号码或者邮箱地址。 单击“登录”,成功登录后显示OrgID首页。 图1 OrgID首页 首

    来自:帮助中心

    查看更多 →

  • 使用catalog连接kerberos安全认证hive on obs

    使用catalog连接kerberos安全认证hive on obs 使通过CloudTable集群管理面创建 MRS Hive连接。 目前CloudTable Doris暂不支持使用Catalog对接数据存储在并行文件系统的OBS MRS Hive集群 。 创建MRS Hive连接步骤

    来自:帮助中心

    查看更多 →

  • 配置Hive业务使用其他组件的用户权限

    配置Hive业务使用其他组件的用户权限 操作场景 Hive业务还可能需要关联使用其他组件,例如HQL语句触发MapReduce任务需要设置Yarn权限,或者Hive over HBase的场景需要HBase权限。以下介绍Hive关联Yarn和Hive over HBase两个场景下的操作。

    来自:帮助中心

    查看更多 →

  • 配置Hive业务使用其他组件的用户权限

    配置Hive业务使用其他组件的用户权限 操作场景 Hive业务还可能需要关联使用其他组件,例如HQL语句触发MapReduce任务需要设置Yarn权限,或者Hive over HBase的场景需要HBase权限。以下介绍Hive关联Yarn和Hive over HBase两个场景下的操作。

    来自:帮助中心

    查看更多 →

  • 使用catalog连接kerberos安全认证hive on hdfs

    type 对接外部数据类型。 hive.metastore.uris hive元数据uri,可在hive-site.xml配置文件查看。 hive.server2.thrift.sasl.qop 可在hive-site.xml配置文件查看。 hive.server2.authentication

    来自:帮助中心

    查看更多 →

  • 使用Hive加载OBS数据并分析企业雇员信息

    使用Hive加载OBS数据并分析企业雇员信息 应用场景 MRS Hadoop分析集群,提供Hive、Spark离线大规模分布式数据存储和计算,进行海量数据分析与查询。 本实践基于华为 MapReduce服务 ,用于指导您创建MRS集群后,使用Hive对OBS中存储的原始数据进行导入

    来自:帮助中心

    查看更多 →

  • 在Hue WebUI使用HiveQL编辑器

    在Hue WebUI使用HiveQL编辑器 操作场景 用户需要使用图形化界面在集群中执行HiveQL语句时,可以通过Hue完成任务。 访问编辑器 访问Hue WebUI,请参考访问Hue WebUI界面。 在左侧导航栏单击,然后选择“Hive”,进入“Hive”。 “Hive”支持以下功能:

    来自:帮助中心

    查看更多 →

  • 快速使用Hive进行数据分析

    快速使用Hive进行数据分析 Hive是基于Hadoop的一个 数据仓库 工具,可将结构化的数据文件映射成一张数据库表,并提供类SQL的功能对数据进行分析处理,通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。 背景信息

    来自:帮助中心

    查看更多 →

  • 管理账号信息(使用华为账号)

    管理账号信息(使用华为账号) 重置密码 查看基本信息 修改租户名 设置账号类型 修改手机号 修改邮件地址 修改联系信息 修改业务信息 设置首选项 注销华为云业务(华为账号用户)

    来自:帮助中心

    查看更多 →

  • 基本信息(使用华为账号)

    基本信息(使用华为账号) 基本概念 注册 登录 注销 升级 签约主体变更

    来自:帮助中心

    查看更多 →

  • 使用CDM服务迁移MySQL数据至MRS Hive

    示。 图1 MySQL表字段 使用 CDM 将MySQL中的导入到MRS Hive分区表,流程如下: 在MRS Hive上创建Hive分区表 创建CDM集群并绑定EIP 创建MySQL连接 创建Hive连接 创建迁移作业 前提条件 已经购买包含有Hive服务的MRS集群。 已获取连接

    来自:帮助中心

    查看更多 →

  • 快速使用Hive进行数据分析

    drop table user_info; 执行以下命令退出Hive客户端。 !q 外部分区表操作 可使用insert语句直接向外部表中插入数据,也可以使用load data命令导入HDFS中的文件数据到外部表中。如果需要使用load data命令导入文件数据,需执行以下操作: 根据

    来自:帮助中心

    查看更多 →

  • 在Hue WebUI使用HiveQL编辑器

    “mr”表示语句使用MapReduce计算框架执行语句。 “spark”表示语句使用Spark计算框架执行语句。 “tez”表示语句使用Tez计算框架执行语句。 tez适用于MRS 1.9.x及以后版本。 单击 开始执行HiveQL语句。 如果希望下次继续使用已输入的HiveQL语句,请单击保存。

    来自:帮助中心

    查看更多 →

  • HiveServer和HiveHCat进程故障

    HiveServer和HiveHCat进程故障 用户问题 客户集群HiveServer和WebHCat进程状态均为故障。 问题现象 客户MRS集群Master2节点上的HiveServer和WebHCat进程状态显示为故障,重启之后仍为故障状态。 原因分析 在Manager界面单

    来自:帮助中心

    查看更多 →

  • 入门实践

    的次数。 使用Hive加载HDFS数据并分析图书评分情况 本实践指导使用Hive对原始数据进行导入、分析等操作,展示了如何构建弹性、低成本的离线大数据分析。以某图书网站后台用户的点评数据为原始数据,导入Hive表后通过SQL命令筛选出最受欢迎的畅销图书。 使用Hive加载OBS数据并分析企业雇员信息

    来自:帮助中心

    查看更多 →

  • 使用Oozie调度Spark2x访问HBase以及Hive

    <spark-opts> 中的spark-archive-2x.zip路径需要根据实际HDFS文件路径进行修改。 修改上传后HDFS的“/user/developuser/myjobs/apps/spark2x”目录下的“hive-site.xml”中“hive.security.authenticator

    来自:帮助中心

    查看更多 →

  • ALM-16005 Hive服务进程堆内存使用超出阈值

    ALM-16005 Hive服务进程堆内存使用超出阈值 告警解释 系统每30秒周期性检测Hive堆内存使用率,并把实际的Hive堆内存使用率和阈值相比较。当Hive堆内存使用率超出阈值(默认为最大堆内存的95%)时产生该告警。 用户可通过“运维 >告警 > 阈值设置 > 待操作集群的名称

    来自:帮助中心

    查看更多 →

  • ALM-16006 Hive服务进程直接内存使用超出阈值

    ALM-16006 Hive服务进程直接内存使用超出阈值 告警解释 系统每30秒周期性检测Hive直接内存使用率,并把实际的Hive直接内存使用率和阈值相比较。当Hive直接内存使用率超出阈值(默认为最大直接内存的95%)时产生该告警。 用户可通过“运维 > 告警 > 阈值设置 >

    来自:帮助中心

    查看更多 →

  • 使用Oozie调度Spark2x访问HBase以及Hive

    <spark-opts> 中的spark-archive-2x.zip路径需要根据实际HDFS文件路径进行修改。 修改上传后HDFS的“/user/developuser/myjobs/apps/spark2x”目录下的“hive-site.xml”中“hive.security.authenticator

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了