华为云

面向未来的智能世界,数字化是企业发展的必由之路。数字化成功的关键是以云原生的思维践行云原生,全数字化、全云化、AI驱动,一切皆服务。

华为云将持续创新,携手客户、合作伙伴和开发者,致力于让云无处不在,让智能无所不及,共建智能世界云底座。

 
 

    idea本地操作华为云hive 更多内容
  • 导入并配置Spark样例工程

    SparkHivetoHbaseJavaExample 从Hive读取数据再写入HBase Java SparkHivetoHbaseScalaExample 从Hive读取数据再写入HBase Scala SparkHivetoHbasePythonExample 从Hive读取数据再写入HBase

    来自:帮助中心

    查看更多 →

  • 使用Hue WebUI操作Hive表

    使用Hue WebUI操作Hive表 Hue汇聚了与大多数Apache Hadoop组件交互的接口,致力让用户通过界面图形化的方式轻松使用Hadoop组件。目前Hue支持HDFS、Hive、HBase、Yarn、MapReduce、Oozie和SparkSQL等组件的可视化操作。 前提条件

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDTF

    验证和使用 DLI 的UDTF函数 DLI控制台 在DLI作业中使用创建的UDTF函数。 操作步骤 新建Maven工程,配置pom文件。以下通过IntelliJ IDEA 2020.2工具操作演示。 打开IntelliJ IDEA,选择“File > New > Project”。 图2 新建Project

    来自:帮助中心

    查看更多 →

  • 如何使用IDEA远程调试

    如何使用IDEA远程调试 问题 在Spark二次开发中如何使用IDEA远程调试? 回答 以调试SparkPi程序为例,演示如何进行IDEA的远程调试: 打开工程,在菜单栏中选择“Run > Edit Configurations”。 在弹出的配置窗口中用鼠标左键单击左上角的号,在

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    本地Windows环境中调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。

    来自:帮助中心

    查看更多 →

  • 环境准备

    /releases 根据Spark、Hive版本下载对应客户端(如Spark3.1.1,对应Hive版本为2.3.7,则下载hive-exec-2.3.7-core.jar、hive-common-2.3.7.jar) 方式二:本地编译Hive相关jar包 如果对接的环境为Spark

    来自:帮助中心

    查看更多 →

  • 本地上传数据集操作说明

    本地上传数据集操作说明 本地上传数据集操作说明 针对硬盘故障检测,需要提前在本地准备四份数据集,分别如下所示: HardDisk-Detect_Train_Good.csv:无故障硬盘训练数据 HardDisk-Detect_Train_Fail.csv:故障硬盘训练数据 Har

    来自:帮助中心

    查看更多 →

  • 在JetBrains系列IDE中安装CodeArts Snap

    ),包括Intellij IDEA、Pycharm等。 这里以IntelliJ IDEA为例介绍JetBrains平台插件的安装流程,其他JetBrains系列的IDE请参考IntelliJ IDEA。 前提条件 CodeArts Snap插件依赖华为云底座插件“Huawei Cloud

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDF

    SQL作业中使用UDF 操作场景 DLI支持用户使用Hive UDF(User Defined Function,用户定义函数)进行数据查询等操作,UDF只对单行数据产生作用,适用于一进一出的场景。 约束限制 在DLI Console上执行UDF相关操作时,需要使用自建的SQL队列。

    来自:帮助中心

    查看更多 →

  • 导入并配置Kafka样例工程

    \resources”目录下。 安装IntelliJ IDEA和JDK工具后,需要在IntelliJ IDEA配置JDK。 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 打开IntelliJ IDEA,选择“Configure”。 图1 Quick Start

    来自:帮助中心

    查看更多 →

  • 在IDEA中提交Storm拓扑

    ar包打包好之后在IntelliJ IDEA中运行main方法提交 * 3、本地提交 ,在本地执行应用程序,一般用来测试 * 命令行方式和远程方式安全和普通模式都支持 * 本地提交仅支持普通模式

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    duceExample,OozieSparkHBaseExample和OozieSparkHiveExample三个样例工程。 在应用开发环境中,导入样例工程到IDEA开发环境。 在IDEA中选择“File > Open”,弹出“浏览文件夹”对话框。 选择样例工程文件夹,单击“OK”。

    来自:帮助中心

    查看更多 →

  • 导入并配置Kafka样例工程

    IDEA配置JDK。 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 打开IntelliJ IDEA,选择“Configure”。 图1 Quick Start 在下拉框中选择“Project Defaults > Project Structure”。 图2 Configure

    来自:帮助中心

    查看更多 →

  • Spark应用开发常见问题

    ception异常 Spark任务读取HBase报错“had a not serializable result” 本地运行Spark程序连接 MRS 集群的Hive、HDFS 父主题: Spark开发指南

    来自:帮助中心

    查看更多 →

  • 导入并配置HBase样例工程

    完成JDK配置 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 导入样例工程到IntelliJ IDEA开发环境。 打开IntelliJ IDEA,在“Quick Start”页面选择“Open or Import”。 另外,针对已使用过的IDEA工具,可以从主界面选择“File

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    本地Windows环境中调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    本地Windows环境中调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Windows环境中运行应用。本地和集群业务平面网络互通时,您可以直接在本地进行调测。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。

    来自:帮助中心

    查看更多 →

  • 导入并配置HBase样例工程

    完成JDK配置 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 导入样例工程到IntelliJ IDEA开发环境。 打开IntelliJ IDEA,在“Quick Start”页面选择“Open or Import”。 另外,针对已使用过的IDEA工具,可以从主界面选择“File

    来自:帮助中心

    查看更多 →

  • 导入并配置Kafka样例工程

    \resources”目录下。 安装IntelliJ IDEA和JDK工具后,需要在IntelliJ IDEA配置JDK。 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 打开IntelliJ IDEA,选择“Configure”。 图1 Quick Start

    来自:帮助中心

    查看更多 →

  • Hive

    Hive 创建hive catalog 通过连接Hive Metastore,或者兼容Hive Metastore的元数据服务,Doris可以自动获取Hive的库表信息,并进行数据查询。 除了Hive外,很多其他系统也会使用Hive Metastore存储元数据。所以通过Hive

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDAF

    验证和使用DLI的UDAF函数 DLI控制台 在DLI作业中使用创建的UDAF函数。 操作步骤 新建Maven工程,配置pom文件。以下通过IntelliJ IDEA 2020.2工具操作演示。 打开IntelliJ IDEA,选择“File > New > Project”。 图2 新建Project

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了