开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    服务器运行java程序 更多内容
  • Java

    Java SDK配置 调用示例 通用接口 ERC721业务接口 ERC1155业务接口 ERC998业务接口 合约仓库业务接口 工具接口 数据结构 父主题: SDK参考

    来自:帮助中心

    查看更多 →

  • Java

    import java.io.IOException; import java.util.ArrayList; import java.util.Arrays; import java.util.HashMap; import java.util.List; import java.util

    来自:帮助中心

    查看更多 →

  • Java

    Java 开发事件函数 java模板 制作依赖包

    来自:帮助中心

    查看更多 →

  • Java

    Java 准备环境 获取与安装 本地应用注入iDME注解示例 创建 数据实例 示例 查询某实体的实例数据示例 父主题: 客户端SDK

    来自:帮助中心

    查看更多 →

  • 运行Spark作业报java.lang.AbstractMethodError

    运行Spark作业报java.lang.AbstractMethodError Spark 2.3对内部接口Logging做了行为变更,如果用户代码里直接继承了该Logging,且编译时使用的是低版本的Spark,那么应用程序在Spark 2.3的环境中运行将会报java.lang

    来自:帮助中心

    查看更多 →

  • 函数开发简介

    函数开发简介 函数支持的运行时语言 FunctionGraph函数Runtime支持多种运行时语言:Python 、Node.js、Java、Go、C#、PHP及自定义运行时,说明如表1所示。 建议使用相关语言的最新版本。 表1 运行时说明 运行时语言 支持版本 SDK下载 Node

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序开发思路

    将打包生成的jar包上传到Spark客户端所在 服务器 的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java或Scala样例代码 bin/spark-submit

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序开发思路

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java或Scala样例代码 bin/spark-submit

    来自:帮助中心

    查看更多 →

  • 安装客户端时编译并运行程序

    安装客户端时编译并运行程序 操作场景 HBase应用程序支持在安装HBase客户端的Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至Linux环境中运行应用。 前提条件 已安装HBase客户端。 Linux环境已安装JDK,版本号需要和Eclipse导出Jar包使用的JDK版本一致。

    来自:帮助中心

    查看更多 →

  • 在Linux环境中编包并运行Spark程序

    在Linux环境中编包并运行Spark程序 操作场景 在程序代码完成开发后,您可以上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Spark客户端的运行步骤是一样的。 使用Python开发的Spark应用程序无需打包成jar,只需将样例工程复制到编译机器上即可。

    来自:帮助中心

    查看更多 →

  • 调测OpenTSDB应用

    议。默认为https。 运行样例。 开发完成后,在开发环境中(例如Eclipse中),右击“OpentsdbExample.java”,单击“Run as > Java Application”运行对应的应用程序工程。 父主题: 在Windows中调测程序

    来自:帮助中心

    查看更多 →

  • 应用防护概述

    应用防护概述 应用防护功能旨在为运行时的应用提供安全防御。您无需修改应用程序文件,只需将探针注入到应用程序,即可为应用提供强大的安全防护能力。 技术原理 通过动态代码注入技术在运行时将监控&保护代码(即探针)注入到应用程序的关键监控&保护点(即关键函数),探针根据预定义规则,结合

    来自:帮助中心

    查看更多 →

  • 运行HBase应用开发程序产生异常如何处理

    运行HBase应用开发程序产生异常如何处理 提示信息包含org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory的解决办法 检查应用开发工程的配置文件hbase-site.xml中是否包含配置项hbase.rpc

    来自:帮助中心

    查看更多 →

  • 在Linux环境中编包并运行Spark程序

    在Linux环境中编包并运行Spark程序 操作场景 在程序代码完成开发后,您可以上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Spark客户端的运行步骤是一样的。 使用Python开发的Spark应用程序无需打包成jar,只需将样例工程复制到编译机器上即可。

    来自:帮助中心

    查看更多 →

  • 本地运行Spark程序连接MRS集群的Hive、HDFS

    本地运行Spark程序连接 MRS 集群的Hive、HDFS 问题 本地运行Spark程序时,如何连接MRS集群的Hive和HDFS? 回答 为每一个Master节点申请并绑定弹性公网IP。 在本地Windows上配置集群的ip与主机名映射关系。登录集群后台,执行命令cat /etc

    来自:帮助中心

    查看更多 →

  • 集群修改域名后Hive样例程序运行报错

    集群修改 域名 后Hive样例程序运行报错 问题背景与现象 Hive的二次开发代码样例运行报No rules applied to ****的错误: 原因分析 Hive的二次开发样例代码会加载core-site.xml,此文件默认是通过classload加载,所以使用的时候要把此配置

    来自:帮助中心

    查看更多 →

  • 实施步骤

    实施步骤 搭建Java运行环境 部署同步程序 部署web应用 登录系统网站 释放资源(如删除 弹性云服务器

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序(Java)

    setoHbase-1.0.jar 运行Python样例程序 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。将所提供 Java代码使用maven打包成jar,并放在相同目录下,运行python程序时要使用--jars把jar包加载到classpath中。

    来自:帮助中心

    查看更多 →

  • JAVA安装

    JAVA安装 进入JAVA的安装,选择“接受”选项,如图1所示,jre插件默认安装。 (如果想要查看或更改jre默认路径和安装内容,可以勾选左下角的显示高级选项面板复选框。)其它步骤如图2、图3所示。 图1 JAVA安装 图2 JAVA安装进度 图3 JAVA安装完成 如果本机已

    来自:帮助中心

    查看更多 →

  • java模板

    java模板 有状态函数: // funcName: javastateful import com.huawei.function.Function; import com.huawei.function.runtime.StateReader; import com.huawei

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,使用java -cp命令运行代码(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java样例代码: java -cp $SPARK_HOME

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了