开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    jar 配置 linux 服务器 更多内容
  • 本地Linux主机使用FTP上传文件到Linux云服务器

    本地Linux主机使用FTP上传文件到Linux 服务器 操作场景 本文介绍如何在 Linux 系统的本地机器上使用 FTP 服务,将文件从本地上传到云服务器中。 前提条件 已在待上传文件的云服务器中搭建 FTP 服务。 云服务器已绑定弹性公网IP,且安全组入方向开启TCP协议的21端口。

    来自:帮助中心

    查看更多 →

  • 本地Linux主机使用SFTP上传文件到Linux云服务器

    本地Linux主机使用SFTP上传文件到Linux服务器 操作场景 本节操作以CentOS操作系统为例,介绍配置SFTP、使用SFTP上传或下载文件、文件夹的操作步骤。 操作步骤 以root用户登录云服务器。 执行以下命令查看ssh版本,OpenSSH版本大于等于4.8p1。 ssh

    来自:帮助中心

    查看更多 →

  • 启动失败

    通过“选择部署来源”部署步骤下载jar包时,若jar文件命名中包含中文字符,且选择下载的文件为文件夹时,会出现中文乱码,造成当前启动操作无法找到指定jar文件。 处理方法 请按如下方法进行排查修改: 可使用如下命令排查端口占用情况,若被占用,请修改端口号后重新部署Linux lsof

    来自:帮助中心

    查看更多 →

  • 后续操作

    登录应用运维管理控制台,实时监控各云服务器的使用情况,包括CPU、内存、网络等各种看板,监控云服务器的负载水平。 通过云服务器监控 登录云服务器。 执行如下命令,进入arthas目录。 cd /opt/arthas 执行如下命令,启动arthas,查看当前的Java进程,如图1所示。 java -jar arthas-boot

    来自:帮助中心

    查看更多 →

  • Storm-Kafka开发指引

    storm-kafka-<version>.jar slf4j-api-<version>.jar guava-<version>.jar json-simple-<version>.jar curator-client-<version>.jar curator-framework-<version>.jar cu

    来自:帮助中心

    查看更多 →

  • Spark Streaming对接Kafka0-10样例程序开发思路

    conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user

    来自:帮助中心

    查看更多 →

  • Storm-Kafka开发指引

    curator-client-<version>.jar curator-framework-<version>.jar curator-recipes-<version>.jar 将1和2中获取的jar包和配置文件合并统一打出完整的业务jar包,请参见打包Strom应用业务。 进入Linux系统中进入Kafk

    来自:帮助中心

    查看更多 →

  • 在Linux环境中编包并运行Spark程序

    在Run:中出现下面提示,则说明打包成功 图5 打包成功提示 您可以从项目目录下的target文件夹中获取到Jar包。 图6 获取jar包 将2中生成的Jar包(如CollectFemaleInfo.jar)复制到Spark运行环境下(即Spark客户端),如“/opt/female”。运行Spa

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测MapReduce应用

    t”子目录下获取打好的jar包,例如“MRTest-XXX.jar”,jar包名称以实际打包结果为准。 上传生成的应用包“MRTest-XXX.jar”到Linux客户端上,例如“/opt/client/conf”,与配置文件位于同一目录下。 在Linux环境下运行样例工程。 对

    来自:帮助中心

    查看更多 →

  • macOS系统登录Linux云服务器

    已获取云服务器密码,忘记密码请参考在控制台重置密码。 Linux公共镜像云服务器用户名为“root”。 请确保安全组已开放登录端口(默认使用22端口),否则无法连接云服务器配置安全组规则请参考通过SSH远程登录Linux服务器。 如需使用其他端口可登录云服务器后重新设置。修改远程登录端口请参考修改远程登录端口。

    来自:帮助中心

    查看更多 →

  • 准备Spark应用Java开发环境

    xt/”目录下“ SMS 4JA.jar”拷贝到如下路径。 Linux:JDK安装目录/jre/lib/ext/ Windows:JDK安装目录\jre\lib\ext\ 安装IntelliJ IDEA和JDK工具,并进行相应的配置安装JDK。 安装IntelliJ IDEA工具。

    来自:帮助中心

    查看更多 →

  • 使用Livy提交Spark Jar作业

    使用root用户登录E CS 服务器,执行以下命令安装 DLI Livy工具。 执行以下命令创建工具安装路径。 mkdir livy安装路径 例如新建路径/opt/livy:mkdir /opt/livy。后续操作步骤均默认以/opt/livy安装路径演示,请根据实际情况修改。 解压工具压缩包到安装路径。

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    删除child表。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,使用java

    来自:帮助中心

    查看更多 →

  • 创建JDK8基础镜像并上传至SWR

    登录CCE控制台 在购买CCE集群页面配置集群参数,详细请参考创建集群参数配置。 等待集群创建成功。创建成功后在集群管理下会显示一个运行中的集群,且集群节点数量为0。 创建CCE节点。 集群创建成功后,您还需要在集群中创建运行工作负载的节点。CCE节点默认安装Linux操作系统和Docker。我们可以用它创建基础镜像。

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    keytab 文件上传到客户端多在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user

    来自:帮助中心

    查看更多 →

  • Linux云服务器登录方式概述

    Linux服务器登录方式概述 约束与限制 只有运行中的云服务器才允许用户登录。 Linux操作系统用户名“root”。 首次登录云耀云服务器,请先通过“重置密码”功能设置登录密码。 登录方式概述 请根据需要选择登录方式,登录云服务器。 表1 Linux服务器登录方式一览 云服务器操作系统

    来自:帮助中心

    查看更多 →

  • 在Linux中调测Impala JDBC应用

    Linux中调测Impala JDBC应用 前提条件 已安装 MRS 客户端,具体请参见: 集群的Master节点或者Core节点使用客户端可参考集群内节点使用MRS客户端。 MRS集群外客户端的安装操作可参考集群外节点使用MRS客户端。 操作步骤 在运行调测环境上创建一个目录作为

    来自:帮助中心

    查看更多 →

  • 上传jar类型分组资源(废弃)

    "resource_type":"jar", "resource_name":"test_dli.jar", "status":"READY", "underlying_name":"test_dli.jar" }

    来自:帮助中心

    查看更多 →

  • 使用DLI提交Spark Jar作业

    使用DLI提交Spark Jar作业 操作场景 DLI允许用户提交编译为Jar包的Spark作业,Jar包中包含了Jar作业执行所需的代码和依赖信息,用于在数据查询、数据分析、机器学习等特定的数据处理任务中使用。在提交Spark Jar作业前,将程序包上传至OBS,并将程序包与数据和作业参数一起提交以运行作业。

    来自:帮助中心

    查看更多 →

  • 安装JDK

    安装JDK 本节主要介绍如何在Windows和Linux安装JDK,并验证是否安装成功。 Windows下安装JDK 官网下载JDK文件。以JDK8为例,单击JDK下的下载按钮进行下载。 下载完成后按照提示安装安装位置可自选,比如安装到本地“C:\Program Files\Java\jdk1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了