华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api 接口重复提交 更多内容
  • OpenTSDB HTTP API接口介绍

    的RESTful接口,而RESTful接口本身具有语言无关性的特点,凡是支持HTTP请求的语言都可以对接OpenTSDB。 使用Java API操作OpenTSDB OpenTSDB提供了基于HTTP或HTTPS的应用程序接口,可以使用Java API调用相关接口操作其数据,详情请参考开发程序章节。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • 常用OozieAPI接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie Rest接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • 常用Oozie API接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HBase Phoenix API接口介绍

    HBase Phoenix API接口介绍 版本关系 若使用Phoenix,需下载与当前使用 MRS 集群相对应的Phoenix版本,具体请参见http://phoenix.apache.org。其对应关系如表1所示: 表1 MRS与Phoenix版本对应关系一览表 MRS版本 Phoenix版本

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的开源API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Ja

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Spark Scala API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的开源API。 Spark Core常用接口 Spark主要使用到如下这几个类: SparkContext:是Spark的对外接口,负责向调用该类的scal

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Spark Scala API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: SparkContext:是Spark的对外接口,负责向调用该类的scala应

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • 日志出现重复/丢失的原因

    日志出现重复/丢失的原因 日志出现重复 原因一:日志文件转储,且转储文件仍被匹配到。 详细说明:如果配置日志路径文件名中有通配符,如配置为/tmp/*.log,当/tmp/test.log文件转储为/tmp/test.001.log后,因仍被通配规则匹配到,会被视为新文件,则会被重新采集。

    来自:帮助中心

    查看更多 →

  • 有效地址范围重复

    有效地址范围重复 报错信息: 排查位置: 正确格式: 地址为十六进制数,格式为“0x”+地址量。起始地址与结束地址以“-”(半角)连接,范围之间用“,”(半角)分隔。地址范围不可重复。 父主题: 连接状态未连接

    来自:帮助中心

    查看更多 →

  • 提交留言

    提交留言 功能介绍 提交留言 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/servicerequest/cases/{case_id}/message

    来自:帮助中心

    查看更多 →

  • 提交评分

    提交评分 功能介绍 提交评分 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/servicerequest/cases/{case_id}/score

    来自:帮助中心

    查看更多 →

  • 提交任务

    提交任务 本章节对图像 内容审核 AK/SK方式使用SDK进行示例说明。 示例代码中可以使用RunTaskSumbitRequest 类的withUrls配置待审核的图像url(仅支持url方式),配置完成后运行即可。 服务所在的应用区域和终端节点,详情请查看 地区和终端节点 。 package

    来自:帮助中心

    查看更多 →

  • 提交任务

    提交任务 本章节对图像内容审核(异步批量)-提交任务AK/SK方式使用SDK进行示例说明。 示例代码中可以修改TaskSumbitReq的Urls配置待审核的图像url(仅支持url方式),配置完成后运行即可。 package main import ( "fmt"

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了