开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    java操作云服务器 更多内容
  • 入门实践

    当您购买了弹性 云服务器 后,可以根据业务需要搭建为不同的环境、网站或应用。 本文介绍弹性 服务器 常见的搭建实践,帮助您更好的使用弹性云服务器。 环境搭建 实践 描述 手工搭建Java Web环境 以CentOS 7.4 64bit操作系统云服务器为例,介绍如何搭建Java Web环境

    来自:帮助中心

    查看更多 →

  • Java SDK介绍

    Java SDK介绍 SDK配置 通用方法 利用合约发送交易 利用合约查询数据 其他查询 父主题: SDK介绍

    来自:帮助中心

    查看更多 →

  • JAVA版SDK

    JAVA版SDK SDK获取和安装 1. 安装Java开发环境。 访问Java官网,下载并说明安装Java开发环境。 华为云Java SDK支持Java JDK 1.8 及其以上版本。 2. 使用eclipse/IDEA创建工程。 3. 下载ModuleSDK,并在工程中导入jar包。

    来自:帮助中心

    查看更多 →

  • 使用SDK(Java)

    使用SDK(Java) 准备环境 配置样例工程 初始化DIS客户端 创建通道 添加转储任务 更新转储任务 删除转储任务 查询转储列表 查询转储详情 删除通道 查询通道列表 查询通道详情 下载流式数据 上传流式数据 获取数据游标 创建APP 删除APP 新增Checkpoint 查询Checkpoint

    来自:帮助中心

    查看更多 →

  • Java代码示例(总)

    import java.security.InvalidKeyException; import java.security.NoSuchAlgorithmException; import java.security.SecureRandom; import java.util.HashMap;

    来自:帮助中心

    查看更多 →

  • 通过Java连接实例

    已创建弹性云服务器,创建弹性云服务器的方法,请参见《弹性云服务器快速入门》中“创建弹性云服务器”章节。 弹性云服务器上已经安装JDK环境。 客户端建议使用DataStax 3.11.x版本,目前暂不兼容DataStax 4.x版本。 操作步骤 获取GeminiDB Cassandra实例的内网IP地址、端口。

    来自:帮助中心

    查看更多 →

  • java样例代码

    show(); 操作结果 提交Spark作业 将写好的java代码文件上传至 DLI 中。 控制台操作请参考《 数据湖探索 用户指南》。API操作请参考《 数据湖 探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据

    来自:帮助中心

    查看更多 →

  • java样例代码

    将写好的代码文件生成jar包,上传至DLI中。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《创建批处理作业》。

    来自:帮助中心

    查看更多 →

  • java样例代码

    SparkSession; import java.io.File; import java.io.FileInputStream; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream;

    来自:帮助中心

    查看更多 →

  • 使用SDK(Java)

    使用SDK(JavaJava开发环境配置 SDK获取和安装 SDK调用示例

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码样例 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples.FemaleInfoCollection: SparkConf

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples.SparkHivetoHbase。

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能介绍 在Spark应用中,通过使用Streaming调用kafka接口来获取数据,然后把数据经过分析后,找到对应的HBase表记录,再写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能介绍 在Spark应用中,通过使用StructuredStreaming调用kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

  • Oozie Java接口介绍

    Oozie Java接口介绍 Java API主要由org.apache.oozie.client.OozieClient提供。 表1 接口介绍 方法 说明 public String run(Properties conf) 运行job public void start(String

    来自:帮助中心

    查看更多 →

  • java.sql.PreparedStatement

    java.sql.PreparedStatement java.sql.PreparedStatement是预处理语句接口。 表1 对java.sql.PreparedStatement的支持情况 方法名 返回值类型 支持JDBC 4 clearParameters() void

    来自:帮助中心

    查看更多 →

  • java.sql.CallableStatement

    java.sql.CallableStatement java.sql.CallableStatement是存储过程执行接口。 表1 对java.sql.CallableStatement的支持情况 方法名 返回值类型 支持JDBC 4 getArray(int parameterIndex)

    来自:帮助中心

    查看更多 →

  • java.sql.CallableStatement

    java.sql.CallableStatement java.sql.CallableStatement是存储过程执行接口。 表1 对java.sql.CallableStatement的支持情况 方法名 返回值类型 支持JDBC4 支持计划外ALT getArray(int parameterIndex)

    来自:帮助中心

    查看更多 →

  • java.sql.DatabaseMetaData

    java.sql.DatabaseMetaData java.sql.DatabaseMetaData是数据库对象定义接口。 表1 对java.sql.DatabaseMetaData的支持情况 方法名 返回值类型 支持JDBC4 支持计划外ALT allProceduresAreCallable()

    来自:帮助中心

    查看更多 →

  • java.sql.DatabaseMetaData

    java.sql.DatabaseMetaData java.sql.DatabaseMetaData是数据库对象定义接口。 表1 对java.sql.DatabaseMetaData的支持情况 方法名 返回值类型 支持JDBC4 allProceduresAreCallable()

    来自:帮助中心

    查看更多 →

  • java.sql.Statement

    java.sql.Statement java.sql.Statement是SQL语句接口。 表1 对java.sql.Statement的支持情况 方法名 返回值类型 支持JDBC4 addBatch(String sql) void Yes clearBatch() void

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了