开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    java数据 更多内容
  • 往HDFS写数据时报错“java.net.SocketException”

    往HDFS写数据时报错“java.net.SocketException” 问题 为什么在往HDFS写数据时报“java.net.SocketException: No buffer space available”异常? 这个问题发生在往HDFS写文件时。查看客户端和DataNode的错误日志。

    来自:帮助中心

    查看更多 →

  • Java SDK介绍

    Java SDK介绍 SDK配置 通用方法 利用合约发送交易 利用合约查询数据 其他查询 父主题: SDK介绍

    来自:帮助中心

    查看更多 →

  • JAVA版SDK

    JAVA版SDK SDK获取和安装 1. 安装Java开发环境。 访问Java官网,下载并说明安装Java开发环境。 华为云Java SDK支持Java JDK 1.8 及其以上版本。 2. 使用eclipse/IDEA创建工程。 3. 下载ModuleSDK,并在工程中导入jar包。

    来自:帮助中心

    查看更多 →

  • 使用SDK(Java)

    使用SDK(Java) 准备环境 配置样例工程 初始化DIS客户端 创建通道 添加转储任务 更新转储任务 删除转储任务 查询转储列表 查询转储详情 删除通道 查询通道列表 查询通道详情 下载流式数据 上传流式数据 获取数据游标 创建APP 删除APP 新增Checkpoint 查询Checkpoint

    来自:帮助中心

    查看更多 →

  • 通过Java连接实例

    通过Java连接实例 本小节主要介绍使用Java语言连接GeminiDB Cassandra的基本操作。 前提条件 已成功创建GeminiDB Cassandra实例,且实例状态正常。创建GeminiDB Cassandra实例的方法请参见购买实例。 已创建 弹性云服务器 ,创建弹性

    来自:帮助中心

    查看更多 →

  • 使用SDK(Java)

    使用SDK(JavaJava开发环境配置 SDK获取和安装 SDK调用示例

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码样例 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples.FemaleInfoCollection: SparkConf

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples.SparkHivetoHbase。

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java样例代码 功能介绍 在Spark应用中,通过使用Streaming调用kafka接口来获取数据,然后把数据经过分析后,找到对应的HBase表记录,再写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

  • Java样例代码

    protocol", protocol)”注释掉。 当Streaming DataFrame/Dataset中有新的可用数据时,outputMode用于配置写入Streaming接收器的数据。其默认值为“append”。 public class SecurityKafkaWordCount {

    来自:帮助中心

    查看更多 →

  • Oozie Java接口介绍

    Oozie Java接口介绍 Java API主要由org.apache.oozie.client.OozieClient提供。 表1 接口介绍 方法 说明 public String run(Properties conf) 运行job public void start(String

    来自:帮助中心

    查看更多 →

  • java.sql.PreparedStatement

    java.sql.PreparedStatement java.sql.PreparedStatement是预处理语句接口。 表1 对java.sql.PreparedStatement的支持情况 方法名 返回值类型 支持JDBC 4 clearParameters() void

    来自:帮助中心

    查看更多 →

  • java.sql.CallableStatement

    java.sql.CallableStatement java.sql.CallableStatement是存储过程执行接口。 表1 对java.sql.CallableStatement的支持情况 方法名 返回值类型 支持JDBC 4 getArray(int parameterIndex)

    来自:帮助中心

    查看更多 →

  • java.sql.CallableStatement

    java.sql.CallableStatement java.sql.CallableStatement是存储过程执行接口。 表1 对java.sql.CallableStatement的支持情况 方法名 返回值类型 支持JDBC4 支持计划外ALT getArray(int parameterIndex)

    来自:帮助中心

    查看更多 →

  • java.sql.DatabaseMetaData

    java.sql.DatabaseMetaData java.sql.DatabaseMetaData是数据库对象定义接口。 表1 对java.sql.DatabaseMetaData的支持情况 方法名 返回值类型 支持JDBC4 支持计划外ALT allProceduresAreCallable()

    来自:帮助中心

    查看更多 →

  • java.sql.DatabaseMetaData

    java.sql.DatabaseMetaData java.sql.DatabaseMetaData是数据库对象定义接口。 表1 对java.sql.DatabaseMetaData的支持情况 方法名 返回值类型 支持JDBC4 allProceduresAreCallable()

    来自:帮助中心

    查看更多 →

  • java.sql.Statement

    成游标,然后分段处理,所以会加大数据库与客户端的通信量,会有性能损耗。 由于数据库游标是事务内有效,所以,在设置setFetchSize的同时,需要将连接设置为非自动提交模式,setAutoCommit(false)。同时在业务数据需要持久化到数据库中时,在连接上执行提交操作。

    来自:帮助中心

    查看更多 →

  • java.sql.CallableStatement

    java.sql.CallableStatement java.sql.CallableStatement是存储过程执行接口。 表1 对java.sql.CallableStatement的支持情况 方法名 返回值类型 支持JDBC 4 getArray(int parameterIndex)

    来自:帮助中心

    查看更多 →

  • java.sql.CallableStatement

    java.sql.CallableStatement java.sql.CallableStatement是存储过程执行接口。 表1 对java.sql.CallableStatement的支持情况 方法名 返回值类型 支持JDBC 4 getArray(int parameterIndex)

    来自:帮助中心

    查看更多 →

  • 开始监控JAVA应用

    开始监控JAVA应用 快速接入Agent 为JAVA应用手工安装Agent 为部署在CCE容器中的JAVA应用安装Agent 为CodeArts Deploy应用安装Agent 为Docker应用安装Agent

    来自:帮助中心

    查看更多 →

  • java样例代码

    提交Spark作业 将写好的java代码文件上传至 DLI 中。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据湖探索用户指南》。API操

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了