华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口直播源 更多内容
  • 接入API数据源

    在左侧的导航栏选择“数据管理”,单击页面右上角的“接入数据”。 在接入数据页面的“默认数据”页签下,选择“API”类型的数据,然后单击“下一步”。 在页面中配置数据的连接信息。 表1 数据源连接信息 参数 配置说明 数据名称 填写数据的名称,根据规划自定义。建议

    来自:帮助中心

    查看更多 →

  • 查询直播拉流HTTP状态码接口

    查询直播拉流HTTP状态码接口 功能介绍 查询直播拉流HTTP状态码接口。 获取加速 域名 1分钟粒度的HTTP返回码。 最大查询跨度不能超过24小时,最大查询周期7天。 接口约束 该接口暂只支持查询部署在新版视频直播服务上的域名的相关数据(不包含“华北-北京一”)。此约束条件仅适用于中国站。

    来自:帮助中心

    查看更多 →

  • 数据源--添加API数据源

    数据--添加API数据 操作步骤 登录进入“IoT数据分析”服务控制台。 在左侧导航栏选择“数据>API数据”进入页面。 点击“添加数据”按钮,在弹出的页面中输入数据名称,点击“确定”按钮,完成API数据的添加。您可通过第三方APP(例如postman)向这个API数据源的URL发送数据。

    来自:帮助中心

    查看更多 →

  • 接入API数据源

    从“开始创建 > 新建数据”进入创建数据页面,选择要创建数据所在的项目,库类型选择数据API数据。 在配置连接对话框,填写以下配置。 图1 API数据配置项 表1 参数说明 参数名称 是否必填 说明 库类型 是 接入的数据类型,本示例为API数据。更多数据类型连接请参考表1。

    来自:帮助中心

    查看更多 →

  • 跨源认证相关API

    认证相关API 创建跨认证 获取跨认证列表 更新跨认证 删除跨认证

    来自:帮助中心

    查看更多 →

  • ISV认证源集成API

    ISV认证集成API 应用实例授权登录,获取授权码接口 用户级Token获取 Token刷新 退出登录接口 父主题: IPDCenter基础服务API

    来自:帮助中心

    查看更多 →

  • 接入API数据源

    选择界面左侧导航栏中的“数据管理”,单击数据列表上方“接入数据”,进入“接入数据”界面,设置API数据的基本信息,具体参数如表1所示。 表1 参数说明 参数 说明 数据类型 API:数据资源需要通过调用API接口获取。 数据名称 自定义数据名称,建议按照一定的命名规

    来自:帮助中心

    查看更多 →

  • 调用直播API的Token是什么?

    调用直播API的Token是什么? Token是系统颁发给用户的访问令牌,承载用户的身份、权限等信息。视频直播服务通过调用IAM 获取Token 接口,这样调用直播API时,可以使用Token鉴权,从而获得API操作权限。Token获取方法请参见如何调用API。 父主题: API使用

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    r的名称,值是指定对端id的集群指标的汇总。汇总指标是'sizeOfLogToReplicate'和'timeForLogToReplicate'。 getSourceMetrics(String id) 参数类型:String 需要获取对端id的指标汇总。 返回类型:Map<String

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r2.7.2/hadoop-proj

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS Java API接口介绍

    类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:管理colocation组信息的接口。常用接口参见表3。 DFSColocationClient:操作colocation文件的接口。常用接口参见表4。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Streaming特有的一些方法。 表3 Spark Streaming常用接口介绍 方法 说明 socketTextStream(hostname, port, storageLevel) 从TCP主机:端口创建一个输入流。 start() 启动Spark Streaming计算。

    来自:帮助中心

    查看更多 →

  • Flink Java API接口介绍

    用户自定义SourceFunction,addSource方法可以添加Kafka等数据,主要实现方法为SourceFunction的run。 function指的是用户自定义的SourceFunction函数。 sourceName指的是定义该数据的名称。 typeInfo则是根据元素数据类型获取的类型信息。

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    ala接口暂时不支持设置。 def addSource[T: TypeInformation](function: SourceFunction[T]): DataStream[T] 用户自定义SourceFunction,addSource方法可以添加Kafka等数据,主要实

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    ala接口暂时不支持设置。 def addSource[T: TypeInformation](function: SourceFunction[T]): DataStream[T] 用户自定义SourceFunction,addSource方法可以添加Kafka等数据,主要实

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述: http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    HBase常用接口介绍 HBase常用的Java类有以下几个: 接口类Admin,HBase客户端应用的核心类,主要封装了HBase管理类操作的API,例如建表,删表等操作,部分常见接口参见表表1。 接口类Table,HBase读写操作类,主要封装了HBase表的读写操作的API,部分常见接口参见表表2。

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了