弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    服务器运行jar 更多内容
  • Spark Structured Streaming样例程序开发思路

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在 服务器 的任意目录(例如“ /opt/female/” )下。 运行任务 在运行样例程序时需要指定<brokers> <subscribe-type>

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming状态操作样例程序开发思路

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming状态操作样例程序开发思路

    计算结果,并进行打印。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 运行任务 在运行样例程序时需要指定 <brokers> <subscribe-type> <topic>

    来自:帮助中心

    查看更多 →

  • 边缘采集节点部署

    工作目录,默认为与jar包同级的workdir,日志文件存在工作目录中 依赖jar包 使用不同的Flume组件需要额外添加相关的Jar包,详情见第二章依赖驱动清单。 如果系统已经安装Hadoop并配置了“HADOOP_HOME”环境变量就不需要再添加这些jar包。 可以直接将压缩

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming状态操作样例程序开发思路

    计算结果,并进行打印。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 运行任务 在运行样例程序时需要指定 <brokers> <subscribe-type> <topic>

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming状态操作样例程序开发思路

    ,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。

    来自:帮助中心

    查看更多 →

  • Flink Jar作业开发基础样例

    选择队列。Flink Jar作业只能运行在通用队列上。 图2 选择队列 上传Jar包。 Flink版本需要和用户Jar包指定的Flink版本保持一致。 图3 上传Jar包 表2 参数说明 名称 描述 应用程序 用户自定义的程序包。在选择程序包之前需要将对应的Jar包上传至OBS桶中,

    来自:帮助中心

    查看更多 →

  • Flink Jar作业开发指南

    Flink Jar作业开发指南 流生态作业开发指引 Flink Jar作业开发基础样例 使用Flink Jar写入数据到OBS开发指南 使用Flink Jar连接开启SASL_SSL认证的Kafka 使用Flink Jar读写DIS开发指南

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序开发思路

    目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如

    来自:帮助中心

    查看更多 →

  • 编包并运行Spark应用

    client:driver进程在客户端运行运行结果在程序运行后直接输出。 --deploy-mode cluster:driver进程在Yarn的ApplicationMaster(AM)中运行运行结果和日志在Yarn的WebUI界面输出。 进入Spark客户端目录,使用java -cp命令运行代码。 java

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 运行任务 在运行样例程序时需要指定<checkpointDir> <brokers>

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    .conf”。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,使用java -cp命令运行代码(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java样例代码: java

    来自:帮助中心

    查看更多 →

  • 使用APM管理电商应用

    将应用部署到华为云服务器。 注册华为云账号并充值、购买Linux弹性云服务器,请参考购买并登录Linux弹性云服务器。 为保证应用性能,购买弹性云服务器时vCPU/内存请选择2核/4GB以上。应用只支持SUSE12 SP2操作系统,请在公共镜像中选择该镜像。 登录弹性云服务器,创建应用目

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java或Scala样例代码

    来自:帮助中心

    查看更多 →

  • 搭建Java运行环境

    搭建Java运行环境 安装配置jdk 远程登录弹性云服务器,操作方法请参考登录Linux弹性云服务器。 解压安装JDK mkdir –p /data/services/jdk1.8.0_131 tar -zxvf /root/download/jdk-8u151-linux-x64

    来自:帮助中心

    查看更多 →

  • 自定义数据源开发示例(实时任务)

    下生成可运行jar包,例如RealtimeConnector-1.0-SNAPSHOT.jar。 # mvn package 通过Linux或Windows将生成的jar包RealtimeConnector-1.0-SNAPSHOT.jar上传到装有JDK环境的用户服务器上,执行以下命令运行即可。

    来自:帮助中心

    查看更多 →

  • SparkStreaming批量写入HBase表

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序(Java)

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行样例程序前,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java或Scala样例代码

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming对接Kafka样例程序开发思路

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器运行任务 在运行样例程序时需要指定

    来自:帮助中心

    查看更多 →

  • 分布式Scan HBase表

    通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了