华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口限制访问 更多内容
  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

  • HBase Phoenix API接口介绍

    体请参见HBase SQL查询样例代码说明。 连接Phoenix: source /opt/client/bigdata_env kinit MRS 集群用户(MRS集群用户可以是内置用户hbase,或者已加入hbase组中的其他用户,未开启Kerberos认证集群略过该命令) cd

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的开源API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Ja

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    Spark Scala API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的开源API。 Spark Core常用接口 Spark主要使用到如下这几个类: SparkContext:是Spark的对外接口,负责向调用该类的scal

    来自:帮助中心

    查看更多 →

  • OpenTSDB HTTP API接口介绍

    ESTful接口,而RESTful接口本身具有语言无关性的特点,凡是支持HTTP请求的语言都可以对接OpenTSDB。 使用Java API操作OpenTSDB OpenTSDB提供了基于HTTP或HTTPS的应用程序接口,可以使用Java API调用相关接口操作其数据,详情请参考开发程序章节。

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的p

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    Flink Java API接口介绍 由于Flink开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Flink常用接口 Flink主要使用到如下这几个类: StreamExecutionEnvironment:是Flink流处理的基础,提供了程序的执行环境。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • 历史API接口(待下线)

    历史API接口(待下线) 下载构建日志(待下线) 获取构建记录的有向无环图(待下线) 获取构建记录信息(待下线) 停止构建任务(待下线)

    来自:帮助中心

    查看更多 →

  • 通过Cookie字段限制网站访问频率

    限速模式:选择“源限速”、“用户限速”,根据Cookie键值区分单个Web访问者。 用户标识:为了更加有效的标识用户,建议使用“sessionid”或“token”这类标识网站后台颁发给用户的唯一标识字段。 限速频率:单个Web访问者在限速周期内可以正常访问的次数,如果超过该访问次数,Web应

    来自:帮助中心

    查看更多 →

  • 配置API的访问控制

    配置API访问控制 访问控制可控制访问API的IP地址和账户,保护后端服务。您可以创建访问控制策略,允许/禁止某个IP地址或账号访问绑定策略的API访问控制策略和API本身是相互独立的,只有将API绑定访问控制策略后,访问控制策略才对API生效。 约束与限制 同一个API在同

    来自:帮助中心

    查看更多 →

  • 配置API的访问控制

    有将访问控制策略绑定API后,访问控制策略才对绑定的API生效。 约束与限制 同一个API在同一个环境中只能绑定一个相同限制类型的访问控制策略,一个访问控制策略可以绑定多个API。 2022年12月31日后创建的实例支持限制调用API的账号ID,在这之前创建的专享版实例不支持,如需使用,请联系客服。

    来自:帮助中心

    查看更多 →

  • APIG对API请求体的大小是否有限制?

    APIG对API请求体的大小是否有限制? 共享版:API每次最大可以转发Body体为12MB的请求包。请求body体超过12M时,API网关会拒绝该请求。这种场景,推荐考虑使用 对象存储服务 。 专享版:API每次最大可以转发Body体为12MB的请求包。请求body体超过12M时,

    来自:帮助中心

    查看更多 →

  • HBase REST API接口介绍

    在安全集群中执行curl命令时,请遵循以下步骤: 进行kerberos认证。例如, 人机用户:kinit MRS集群用户 例如:kinit hbaseuser 机机用户:kinit -kt 认证凭据路径 MRS集群用户 例如:kinit -kt /opt/user.keytab hbaseuser

    来自:帮助中心

    查看更多 →

  • YARN REST API接口介绍

    YARN REST API接口介绍 功能简介 通过HTTP REST API来查看更多Yarn任务的信息。目前Yarn的REST接口只能进行一些资源或者任务的查询。完整和详细的接口请直接参考官网上的描述以了解其使用: http://hadoop.apache.org/docs/r3

    来自:帮助中心

    查看更多 →

  • 查询API接口的版本信息

    status String 接口版本的状态 updated String 接口版本更新时间 version String 接口版本的版本号信息 表5 Link 参数 参数类型 描述 href String 对应的快捷链接。 rel String 快捷链接标记名称。 表6 MediaTypes

    来自:帮助中心

    查看更多 →

  • YARN REST API接口介绍

    YARN REST API接口介绍 功能简介 通过HTTP REST API来查看更多Yarn任务的信息。目前Yarn的REST接口只能进行一些资源或者任务的查询。完整和详细的接口请直接参考官网上的描述以了解其使用:http://hadoop.apache.org/docs/r3

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了