开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    java两个客户端与服务器 更多内容
  • 分布式Scan HBase表

    将打包生成的jar包上传到Spark客户端所在 服务器 的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • FTP

    接器可外部FTP服务器进行文件交换。 FTP(File Transfer Protocol,文件传输协议)是TCP/IP 协议组中的协议之一。FTP协议包括两个组成部分:FTP服务器和FTP客户端。其中FTP服务器用来存储文件,用户可以使用FTP客户端访问位于FTP服务器上的资源。

    来自:帮助中心

    查看更多 →

  • FTP

    接器可外部FTP服务器进行文件交换。 FTP(File Transfer Protocol,文件传输协议)是TCP/IP协议组中的协议之一。FTP协议包括两个组成部分:FTP服务器和FTP客户端。其中FTP服务器用来存储文件,用户可以使用FTP客户端访问位于FTP服务器上的资源。

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei.bigdata

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming样例程序开发思路

    录下,否则会报class not found异常。 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名文件名等请与实际代码保持一致,此处仅为示例): 运行Java或Scala样例代码: bin/spark-submit --master

    来自:帮助中心

    查看更多 →

  • 出现“客户端与服务器的时间相差大于15分钟”的报错

    出现“客户端服务器的时间相差大于15分钟”的报错 问题 当出现“客户端服务器的时间相差大于15分钟”的报错时,无法正常使用OBS。 回答 出于安全目的,OBS会校验Browser和服务器的时间差,当该时间差大于15分钟时,会出现此报错。请根据本地UTC时间调整本地时间以避免此问题。

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名文件名等请与实际代码保持一致,此处仅为示例): 运行Scala和Java样例程序 bin/spark-submit --class com.huawei.bigdata

    来自:帮助中心

    查看更多 →

  • MapReduce二次开发远程调试

    MapReduce开发调试采用的原理是Java的远程调试机制,在Map/Reduce任务启动时,添加Java远程调试命令。 首先理解两个参数:“mapreduce.map.java.opts”和“mapreduce.reduce.java.opts”,这两个参数为客户端参数,分别指定了Map/Reduce任务对应的JVM启动参数。

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • FTP

    接器可外部FTP服务器进行文件交换。 FTP(File Transfer Protocol,文件传输协议)是TCP/IP 协议组中的协议之一。FTP协议包括两个组成部分:FTP服务器和FTP客户端。其中FTP服务器用来存储文件,用户可以使用FTP客户端访问位于FTP服务器上的资源。

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • 如何检查SSL/TLS认证异常?

    SSLHandshakeException: java.security.cert.CertificateException: No name matching localhost found 异常原因:通常发生在双向认证场景,客户端接收到服务器证书主机名客户端请求连接的主机名不匹配,即验证localhost失败。

    来自:帮助中心

    查看更多 →

  • 操作HBase数据源

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • 操作HBase数据源

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • 提交Spark任务时连接ResourceManager异常

    提交Spark任务时连接ResourceManager异常 问题背景现象 连接ResourceManager异常,导致Spark任务提交失败。 原因分析 在Driver端打印异常如下,打印连接两个ResourceManager主备节点的26004端口均被拒绝: 15/08/19

    来自:帮助中心

    查看更多 →

  • 为什么主NameNode重启后系统出现双备现象

    eeper服务端客户端(ZKFC)通信时所使用的session不一致,ZooKeeper服务端的sessionId为0x164cb2b3e4b36ae4,ZKFC的sessionId为0x144cb2b3e4b36ae4。这意味着ZooKeeper服务端客户端(ZKFC)之间数据交互失败。

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了