python取整 更多内容
  • 删除桶(Python SDK)

    删除桶(Python SDK) 功能说明 桶为空时,用户可以删除桶,以免占用桶数量配额。删除桶后需要等待30分钟才能创建同名桶。 华为云无法恢复用户主动删除的OBS数据。因此调用接口删除桶后,桶相关数据无法恢复,请谨慎操作。 接口约束 待删除的桶必须为空,桶为空包含两方面含义:

    来自:帮助中心

    查看更多 →

  • 其他接口(Python SDK)

    其他接口(Python SDK) 生成带授权信息的URL(Python SDK) 生成带授权信息的表单上传参数(Python SDK) 服务端加密(Python SDK) 静态网站托管(Python SDK) 自定义头域(Python SDK)

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用

    来自:帮助中心

    查看更多 →

  • 如何设置分页查询(Python)

    如何设置分页查询(Python) 使用分页 在使用Python driver进行查询时,可以指定每次查询获取的行数,具体为下列样例查询中的fetch_size参数。 query = "SELECT * FROM space3.table3;" # table3 contains

    来自:帮助中心

    查看更多 →

  • MRS是否支持Python代码?

    MRS 是否支持Python代码? MapReduce服务 中的样例工程和应用开发没有区别,两者都可以选择。 MRS服务支持Python代码,部分提供了Python样例代码的组件样例工程可参考《开发指南》对应章节。 父主题: 大数据业务开发

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用

    来自:帮助中心

    查看更多 →

  • Python SDK使用范例

    Python SDK使用范例 以同步执行函数为例,提供封装后的SDK。为了保证您成功使用以下示例代码,您需要先添加对应语言的SDK依赖。 表1 Python SDK信息说明 SDK信息 说明 版本 3.0.97 安装 pip install huaweicloudsdkfunctiongraph

    来自:帮助中心

    查看更多 →

  • Python SDK接口概览

    Python SDK接口概览 表1总结了OBS Python SDK支持的接口及功能描述,每个接口的详细介绍和示例代码请前往接口详情页查看。 SDK API概览 表1 Python SDK API概览 接口名 方法 功能描述 创建桶 ObsClient.createBucket 创建桶。

    来自:帮助中心

    查看更多 →

  • 快速入门(Python SDK)

    快速入门(Python SDK) 创建AK、SK OBS通过用户账户中的AK和SK进行签名验证,确保通过授权的账户才能访问指定的OBS资源。以下是对AK和SK的解释说明: AK:Access Key ID,接入键标识,用户在 对象存储服务 系统中的接入键标识,一个接入键标识唯一对应一

    来自:帮助中心

    查看更多 →

  • Python Demo使用说明

    Python Demo使用说明 本文以Python语言为例,介绍应用通过MQ TTS 协议接入平台,接收服务端订阅消息的示例。 前提条件 熟悉Python语言开发环境配置,熟悉Python语言基本语法。 开发环境 本示例使用了Python 3.8.8版本。 添加依赖 本示例使用的Py

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    Spark Python API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用

    来自:帮助中心

    查看更多 →

  • 通过Python语言连接实例

    通过Python语言连接实例 本章节介绍了通过Python语言连接GeminiDB Influx实例的方法。 前提条件 已安装InfluxDB的Python客户端。 使用非SSL方式连接实例的示例代码 from influxdb import InfluxDBClient #

    来自:帮助中心

    查看更多 →

  • Python SDK使用说明

    Python SDK使用说明 操作场景 使用Python语言调用APP认证的API时,您需要先获取SDK,然后新建工程,最后参考调用API示例调用API。 前提条件 已获取API的调用信息,具体请参见开发准备。 已安装开发工具和Python开发语言环境,具体请参见开发准备。 Py

    来自:帮助中心

    查看更多 →

  • Python3语言API示例

    Python3语言API示例 本示例以图像标签为例介绍如何使用Python3调用API。 # encoding:utf-8 import requests import base64 url = "https://{endpoint}/v2/{project_id}/image/tagging"

    来自:帮助中心

    查看更多 →

  • 设置桶标签(Python SDK)

    设置桶标签(Python SDK) 功能介绍 为桶添加标签后,该桶上所有请求产生的计费话单里都会带上这些标签,从而可以针对话单报表做分类筛选,进行更详细的成本分析。例如:某个应用程序在运行过程会往桶里上传数据,可以用应用名称作为标签,设置到被使用的桶上。在分析话单时,就可以通过应用名的标签来分析此应用的成本。

    来自:帮助中心

    查看更多 →

  • 下载对象简介(Python SDK)

    下载对象简介(Python SDK) OBS Python SDK提供了丰富的对象下载接口,可以通过以下方式下载对象: 二进制下载 流式下载 文件下载 范围下载 断点续传下载 父主题: 对象相关接口(Python SDK)

    来自:帮助中心

    查看更多 →

  • 复制对象(Python SDK)

    复制对象(Python SDK) 功能说明 用户可以根据需要将存储在OBS上的对象复制到其他路径下。复制对象操作将创建需要复制的对象的副本。在单次操作中,您可以创建最大5GB的对象副本。为指定桶中的对象创建一个副本。 接口约束 您必须是桶拥有者或拥有复制对象的权限,才能复制对象。

    来自:帮助中心

    查看更多 →

  • 日志分析(Python SDK)

    日志分析 (Python SDK) 日志配置 OBS Python SDK基于Python日志库提供了日志功能,您可以通过ObsClient.initLog开启日志功能并进行配置。示例代码如下: # 引入模块 from obs import LogConf from obs import

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序(Python)

    Spark SQL样例程序(Python) 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码样例 下面代码片段仅为演示,具体代码参见SparkSQLPythonExample: # -*- coding:utf-8 -*- import sys from

    来自:帮助中心

    查看更多 →

  • OpenTSDB是否支持Python的接口?

    OpenTSDB是否支持Python的接口? 问:OpenTSDB是否支持Python的接口? 答:OpenTSDB基于HTTP提供了访问其的RESTful接口,而RESTful接口本身具有语言无关性的特点,凡是支持HTTP请求的语言都可以对接OpenTSDB,所以OpenTSDB支持Python的接口。

    来自:帮助中心

    查看更多 →

  • 开发一个Python作业

    测试通过后,单击“确定”,创建数据连接。 开发Python脚本 在“数据开发 > 脚本开发”模块中创建一个Python脚本,脚本名称为“python_test”。 图2 创建Python脚本 选择Python版本(以Python3为例),并选择主机连接,根据实际需要输入参数。 配置的参数是指执行Python脚本时,向

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了