jar文件怎么运行 更多内容
  • 在Linux环境中调测HDFS应用

    gs.xml”文件路径。 打包成功之后,在工程根目录的target子目录下获取打好的jar包。 将导出的Jar包上传至Linux运行环境的任意目录下,例如“/opt/client”。 将工程中的“lib”文件夹和“conf”文件夹上传至和Jar包相同的Linux运行环境目录下(其

    来自:帮助中心

    查看更多 →

  • 未安装客户端时编译并运行HBase应用

    未安装客户端时编译并运行HBase应用 HBase应用程序支持在未安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和Eclipse导出Jar包使用的JDK版本一致。

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    对单词记录进行分类统计。 计算结果,并进行打印。 运行前置操作 安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytab和krb5.conf文件为安全模式下的认证文件,需要在 FusionInsight Manage

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HBase应用

    切换到“/opt/test”,执行以下命令,运行Jar包。 sh run.sh 查看Linux调测结果 HBase应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果查看应用程序运行情况。 通过HBase日志获取应用程序运行情况。 登录HBase WebUI查看应用程序运行情况。可参见“更多信息

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序开发思路

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端 服务器 的实际路径。 运行Python样例代码无需通过Maven打包,只需要上传user

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Hive JDBC样例程序

    JDBC应用程序支持在安装Hive客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装Hive客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测Kafka应用

    在程序代码完成开发后,可以在Linux环境中运行IoTDB-Kafka样例程序。 前提条件 已安装IoTDB和Kafka客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 操作步骤 导出Jar包。 构建Jar包方式有以下两种:

    来自:帮助中心

    查看更多 →

  • 调测Kafka Producer样例程序

    ces”目录下和依赖库文件目录下的所有文件,均具有可读权限。同时保证已安装JDK并已设置java相关环境变量。 在Windows中调测程序 确保本地的hosts文件中配置了远程集群所有主机的主机名和业务IP映射关系。 通过IntelliJ IDEA可直接运行Producer.java,如图1所示:

    来自:帮助中心

    查看更多 →

  • Linux中未安装客户端时提交Storm拓扑

    } 导出Jar包并上传到Linux环境。 参考打包Strom样例工程应用执行打包,并将jar包命名为“example.jar”。 将导出的Jar包复制到Linux环境的“/opt/test/lib”目录下。 切换到“/opt/test”,执行以下命令,运行Jar包。 java

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    ”目录汇总包含了工程中依赖的所有的Jar包,“conf”目录包含运行jar包所需的集群相关配置文件,请参考准备运行环境)。 运行此样例代码需要设置运行用户,设置运行用户有两种方式,添加环境变量HADOOP_USER_NAME或者修改代码设置运行用户。若在没有修改代码的场景下,执行以下语句添加环境变量:

    来自:帮助中心

    查看更多 →

  • 使用DLI提交Flink Jar作业

    步骤1:开发Jar包并上传数据至OBS DLI 控制台不提供Jar包的开发能力,您需要在线下完成Jar包的开发。Jar包的开发样例请参考Flink Jar开发基础样例。 参考Flink作业样例代码开发Flink Jar作业程序,编译并打包为“flink-examples.jar”。参考以下操作步骤上传该作业程序。

    来自:帮助中心

    查看更多 →

  • 调测OpenTSDB应用

    Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 Linux环境已安装JDK,版本号需要和Eclipse导出Jar包使用的JDK版本一致。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和I

    来自:帮助中心

    查看更多 →

  • 未安装客户端时编译并运行程序

    操作步骤 导出Jar包。 右击样例工程,选择导出。 图1 导出Jar包 选择JAR file,单击“Next”。 图2 选择JAR file 勾选“src”目录,导出Jar包到指定位置。单击两次“Next”。 图3 选择导出路径 单击“Finish”,完成导出Jar包。 准备依赖的Jar包和配置文件。

    来自:帮助中心

    查看更多 →

  • SDK的使用

    SDK的使用 安装SDK 如何获取GO、JAVA压缩包、Jar文件请参考概述。 GO:将下载的压缩包解压到用户的$GOPATH目录下。 Java:将下载的压缩包中的Jar文件添加到项目的依赖中,可按以下方式添加: 将下载的SDK Jar包注册至Maven本地仓库,可参考以下命令:

    来自:帮助中心

    查看更多 →

  • 调测Kafka Producer样例程序

    java,如图1所示: 图1 运行Producer.java 运行后弹出控制台窗口,可以查看到Producer正在向默认Topic(example-metric1)发送消息,每发送10条,打印一条日志。 图2 Producer运行窗口 在Linux调测程序 导出jar包。 构建jar包方式有以下两种:

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测MapReduce应用

    在程序代码完成开发后,您可以在Linux环境中运行应用。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果查看程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn WebUI查看应用程序运行情况。 通过MapReduce日志获取应用程序运行情况。

    来自:帮助中心

    查看更多 →

  • 编译并调测Flink应用

    在程序代码完成开发后,编译jar包并上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Flink客户端的运行步骤是相同的。 基于YARN集群的Flink应用程序不支持在Windows环境下运行,只支持在Linux环境下运行。 操作步骤 在IntelliJ

    来自:帮助中心

    查看更多 →

  • Flink Jar作业开发基础样例

    指定类的参数列表,参数之间使用空格分隔。 依赖jar包 用户自定义的依赖程序包。在选择程序包之前需要将对应的Jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序包,包类型选择“jar”,具体请参考创建程序包。 其他依赖文件 用户自定义的依赖文件。在选择依赖文件之前需要将对应的文件上传至OBS桶中,

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    gs.xml”文件路径。 打包成功之后,在工程根目录的target子目录下获取打好的jar包。 将导出的Jar包上传至Linux运行环境的任意目录下,例如“/opt/client”。 将工程中的“lib”文件夹和“conf”文件夹上传至和Jar包相同的Linux运行环境目录下(其

    来自:帮助中心

    查看更多 →

  • 使用Spark Jar作业读取和查询OBS数据

    Jar包文件上传到OBS目录下和DLI程序包中。 7 创建Spark Jar作业 DLI控制台 在DLI控制台创建Spark Jar作业并提交运行作业。 8 查看作业运行结果 DLI控制台 查看作业运行状态和作业运行日志。 步骤1:创建DLI通用队列 提交Spark作业需要先创建队列,本例创建名为“sparktest”的通用队列。

    来自:帮助中心

    查看更多 →

  • 在Linux中调测JDBC样例程序

    JDBC应用程序支持在安装Hive客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 已安装Hive客户端。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了