华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口限制访问 更多内容
  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro

    来自:帮助中心

    查看更多 →

  • HBaseJDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • 常用OozieAPI接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Spark Scala API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: SparkContext:是Spark的对外接口,负责向调用该类的scala应

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    Flink Scala API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述:http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • 如何通过域名访问专享版APIG中注册的接口?

    如何通过 域名 访问专享版APIG中注册的接口? 以域名www.test.com为例,具体请参考如下步骤。 图1 域名示例 登录API网关控制台,在左侧导航栏选择“专享版”,单击实例名称,进入“实例概览”页面,在“入口地址”区域查看“弹性IP地址”,获取APIG的访问地址(ip格式)。

    来自:帮助中心

    查看更多 →

  • 通过Cookie字段限制网站访问频率

    限速模式:选择“源限速”、“用户限速”,根据Cookie键值区分单个Web访问者。 用户标识:为了更加有效的标识用户,建议使用“sessionid”或“token”这类标识网站后台颁发给用户的唯一标识字段。 限速频率:单个Web访问者在限速周期内可以正常访问的次数,如果超过该访问次数,Web应

    来自:帮助中心

    查看更多 →

  • 配置API的访问控制

    配置API访问控制 访问控制可控制访问API的IP地址和账户,保护后端服务。您可以创建访问控制策略,允许/禁止某个IP地址或账号访问绑定策略的API访问控制策略和API本身是相互独立的,只有将API绑定访问控制策略后,访问控制策略才对API生效。 约束与限制 同一个API在同

    来自:帮助中心

    查看更多 →

  • 配置API的访问控制

    有将访问控制策略绑定API后,访问控制策略才对绑定的API生效。 使用限制 同一个API在同一个环境中只能绑定一个相同限制类型的访问控制策略,一个访问控制策略可以绑定多个API。 2022年12月31日后创建的实例支持限制调用API的账号ID,在这之前创建的专享版实例不支持,如需使用,请联系客服。

    来自:帮助中心

    查看更多 →

  • APIG对API请求体的大小是否有限制?

    APIG对API请求体的大小是否有限制? 共享版:API每次最大可以转发Body体为12MB的请求包。请求body体超过12M时,API网关会拒绝该请求。这种场景,推荐考虑使用 对象存储服务 。 专享版:API每次最大可以转发Body体为12MB的请求包。请求body体超过12M时,

    来自:帮助中心

    查看更多 →

  • API调用是否存在带宽限制

    API调用是否存在带宽限制 共享版API网关按照流控策略以及单个请求的最大Body体(12M)进行管控,没有直接限制带宽。 专享版API网关存在带宽限制,在创建实例时可以选择公网入口以及出口带宽。 父主题: API策略

    来自:帮助中心

    查看更多 →

  • 服务API调用对并发有什么限制?

    服务API调用对并发有什么限制? 并发数是指某一时间段请求次数。 文本内容审核 :默认API调用最大并发为50。 图像 内容审核 :默认API调用最大并发为10。 各服务更高并发需要,请提交工单联系专业工程师为您服务。 父主题: API使用类

    来自:帮助中心

    查看更多 →

  • 专享版-OpenAPI接口

    专享版-OpenAPI接口 导出API 导入API 父主题: 专享版API(V2)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了