网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
云原生应用网络 ANC
云解析服务 DNS
人工智能
AI开发平台ModelArts
盘古大模型 PanguLargeModels
图引擎服务 GES
AI科学计算服务
自动驾驶云服务 Octopus
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
人脸识别服务 FRS
对话机器人服务 CBS
语音交互服务 SIS
人证核身服务 IVS
视频智能分析服务 VIAS
城市智能体
华为HiLens
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
认证测试中心 CTC
边缘安全 EdgeSec
专属云
专属计算集群 DCC
云化转型
云架构中心
云采用框架
工业软件
工业数字模型驱动引擎
硬件开发工具链平台云服务
工业数据转换引擎云服务
计算
弹性云服务器 ECS
Flexus云服务
裸金属服务器 BMS
云手机服务器 CPH
专属主机 DeH
弹性伸缩 AS
镜像服务 IMS
函数工作流 FunctionGraph
云耀云服务器(旧版)
Huawei Cloud EulerOS
云化数据中心 CloudDC
网络
虚拟私有云 VPC
弹性公网IP EIP
弹性负载均衡 ELB
NAT网关 NAT
云专线 DC
虚拟专用网络 VPN
云连接 CC
VPC终端节点 VPCEP
企业路由器 ER
企业交换机 ESW
全球加速 GA
云原生应用网络 ANC
云解析服务 DNS
CDN与智能边缘
内容分发网络 CDN
智能边缘云 IEC
智能边缘平台 IEF
CloudPond云服务
人工智能
AI开发平台ModelArts
盘古大模型 PanguLargeModels
图引擎服务 GES
AI科学计算服务
自动驾驶云服务 Octopus
图像识别 Image
文字识别 OCR
自然语言处理 NLP
内容审核 Moderation
图像搜索 ImageSearch
人脸识别服务 FRS
对话机器人服务 CBS
语音交互服务 SIS
人证核身服务 IVS
视频智能分析服务 VIAS
城市智能体
华为HiLens
IoT物联网
设备接入 IoTDA
全球SIM联接 GSL
IoT数据分析 IoTA
路网数字化服务 DRIS
IoT边缘 IoTEdge
设备发放 IoTDP
开发与运维
软件开发生产线 CodeArts
需求管理 CodeArts Req
流水线 CodeArts Pipeline
代码检查 CodeArts Check
编译构建 CodeArts Build
部署 CodeArts Deploy
测试计划 CodeArts TestPlan
制品仓库 CodeArts Artifact
移动应用测试 MobileAPPTest
CodeArts IDE Online
开源镜像站 Mirrors
性能测试 CodeArts PerfTest
应用管理与运维平台 ServiceStage
云应用引擎 CAE
开源治理服务 CodeArts Governance
华为云Astro轻应用
CodeArts IDE
Astro工作流 AstroFlow
代码托管 CodeArts Repo
漏洞管理服务 CodeArts Inspector
联接 CodeArtsLink
软件建模 CodeArts Modeling
Astro企业应用 AstroPro
CodeArts盘古助手
华为云Astro大屏应用
开天aPaaS
应用平台 AppStage
开天企业工作台 MSSE
开天集成工作台 MSSI
API中心 API Hub
云消息服务 KooMessage
交换数据空间 EDS
云地图服务 KooMap
CloudDevice 服务
组织成员账号 OrgID
云空间服务 KooDrive
安全与合规
安全技术与应用
Web应用防火墙 WAF
企业主机安全 HSS
云防火墙 CFW
安全云脑 SecMaster
DDoS防护 AAD
数据加密服务 DEW
数据库安全服务 DBSS
云堡垒机 CBH
数据安全中心 DSC
云证书管理服务 CCM
认证测试中心 CTC
边缘安全 EdgeSec
迁移
主机迁移服务 SMS
对象存储迁移服务 OMS
云数据迁移 CDM
迁移中心 MgC
专属云
专属计算集群 DCC
开发者工具
SDK开发指南
API签名指南
DevStar
华为云命令行工具服务 KooCLI
Huawei Cloud Toolkit
CodeArts API
云化转型
云架构中心
云采用框架
用户服务
账号中心
费用中心
成本中心
资源中心
企业管理
工单管理
客户运营能力
国际站常见问题
支持计划
专业服务
合作伙伴支持计划
我的凭证
华为云公共事业服务云平台
工业软件
工业数字模型驱动引擎
硬件开发工具链平台云服务
工业数据转换引擎云服务
存储
对象存储服务 OBS
云硬盘 EVS
云备份 CBR
高性能弹性文件服务 SFS Turbo
弹性文件服务 SFS
存储容灾服务 SDRS
弹性内存存储 EMS
云硬盘备份 VBS
云服务器备份 CSBS
数据快递服务 DES
云存储网关 CSG
专属分布式存储服务 DSS
数据工坊 DWR
地图数据 MapDS
键值存储服务 KVS
容器
云容器引擎 CCE
云容器实例 CCI
容器镜像服务 SWR
云原生服务中心 OSC
应用服务网格 ASM
华为云UCS
数据库
云数据库 RDS
数据复制服务 DRS
文档数据库服务 DDS
分布式数据库中间件 DDM
云数据库 GaussDB
云数据库 GeminiDB
数据管理服务 DAS
数据库和应用迁移 UGO
云数据库 TaurusDB
大数据
MapReduce服务 MRS
数据湖探索 DLI
数据仓库服务 GaussDB(DWS)
云搜索服务 CSS
数据治理中心 DataArts Studio
表格存储服务 CloudTable
可信智能计算服务 TICS
数据接入服务 DIS
湖仓构建 LakeFormation
智能数据洞察 DataArts Insight
数智融合计算服务 DataArtsFabric
数据可视化 DLV
应用中间件
微服务引擎 CSE
分布式消息服务Kafka版
分布式消息服务RabbitMQ版
分布式消息服务RocketMQ版
API网关 APIG
分布式缓存服务 DCS
多活高可用服务 MAS
事件网格 EG
企业应用
域名注册服务 Domains
企业门户 EWP
ICP备案
商标注册
华为云WeLink
华为云会议 Meeting
隐私保护通话 PrivateNumber
语音通话 VoiceCall
消息&短信 MSGSMS
云管理网络
SD-WAN 云服务
云桌面 Workspace
应用与数据集成平台 ROMA Connect
ROMA资产中心 ROMA Exchange
政企自服务管理 ESM
视频
实时音视频 SparkRTC
视频直播 Live
视频点播 VOD
媒体处理 MPC
视频接入服务 VIS
行业视频管理服务 IVM
数字内容生产线 MetaStudio
管理与监管
统一身份认证服务 IAM
消息通知服务 SMN
云监控服务 CES
应用运维管理 AOM
应用性能管理 APM
云日志服务 LTS
云审计服务 CTS
标签管理服务 TMS
配置审计 Config
应用身份管理服务 OneAccess
资源访问管理 RAM
组织 Organizations
资源编排服务 RFS
优化顾问 OA
IAM 身份中心
云运维中心 COC
资源治理中心 RGC
盘古Doer
区块链
区块链服务 BCS
数字资产链 DAC
华为云区块链引擎服务 HBS
解决方案
高性能计算 HPC
SAP
混合云灾备
开天工业工作台 MIW
解决方案工作台
数字化诊断治理专家服务
价格
成本优化最佳实践
云生态
云商店
合作伙伴中心
华为云开发者学堂
华为云慧通差旅
其他
管理控制台
消息中心
产品价格详情
系统权限
客户关联华为云合作伙伴须知
公共问题
宽限期保留期
奖励推广计划
活动
云服务信任体系能力说明

查询所有实例列表

更新时间:2025-08-12 GMT+08:00
分享

功能介绍

查询租户的实例列表,支持按照条件查询。

调用方法

请参见如何调用API

URI

GET /v2/{project_id}/instances

表1 路径参数

参数

是否必选

参数类型

描述

project_id

String

参数解释

项目ID,获取方式请参见获取项目ID

约束限制

不涉及。

取值范围

不涉及。

默认取值

不涉及。

表2 Query参数

参数

是否必选

参数类型

描述

engine

String

参数解释

消息引擎。

约束限制

不涉及。

取值范围

kafka。

默认取值

不涉及。

name

String

参数解释

实例名称。

约束限制

不涉及。

取值范围

不涉及。

默认取值

不涉及。

instance_id

String

参数解释

实例ID。获取方法如下:调用“查询所有实例列表”接口,从响应体中获取实例ID。

约束限制

不涉及。

取值范围

不涉及。

默认取值

不涉及。

status

String

参数解释

实例状态,详细状态说明请参考实例状态说明

约束限制

不涉及。

取值范围

不涉及。

默认取值

不涉及。

include_failure

String

参数解释

是否返回创建失败的实例数。

约束限制

不涉及。

取值范围

  • 'true':返回创建失败的实例数。

  • 'false':不返回创建失败的实例数。

默认取值

不涉及。

exact_match_name

String

参数解释

是否按照实例名称进行精确匹配查询。

约束限制

不涉及。

取值范围

  • 'true':表示按照实例名称进行精确匹配查询。

  • 'false':表示模糊匹配实例名称查询。

默认取值

'false'。

enterprise_project_id

String

参数解释

企业项目ID。

约束限制

不涉及。

取值范围

不涉及。

默认取值

不涉及。

offset

String

参数解释

偏移量,表示从此偏移量开始查询。

约束限制

不涉及。

取值范围

大于等于0。

默认取值

不涉及。

limit

String

参数解释

当次查询返回的实例最大个数。

约束限制

不涉及。

取值范围

1~50。

默认取值

10。

请求参数

响应参数

状态码:200

表3 响应Body参数

参数

参数类型

描述

instances

Array of ShowInstanceResp objects

参数解释

实例列表。

instance_num

Integer

参数解释

实例数量。

取值范围

不涉及。

表4 ShowInstanceResp

参数

参数类型

描述

name

String

参数解释

实例名称。

取值范围

不涉及。

engine

String

参数解释

引擎。

取值范围

  • kafka

engine_version

String

参数解释

Kafka的版本。

取值范围

  • 1.1.0

  • 2.7

  • 3.x

description

String

参数解释

实例描述。

取值范围

不涉及。

specification

String

参数解释

实例规格。

取值范围

不涉及。

storage_space

Integer

参数解释

消息存储空间,单位:GB。

取值范围

  • Kafka实例规格为c6.2u4g.cluster时,存储空间取值范围300GB ~ 300000GB。

  • Kafka实例规格为c6.4u8g.cluster时,存储空间取值范围300GB ~ 600000GB。

  • Kafka实例规格为c6.8u16g.cluster时,存储空间取值范围300GB ~ 1500000GB。

  • Kafka实例规格为c6.12u24g.cluster时,存储空间取值范围300GB ~ 1500000GB。

  • Kafka实例规格为c6.16u32g.cluster时,存储空间取值范围300GB ~ 1500000GB。

  • Kafka实例规格为kafka.2u4g.cluster.small时,存储空间取值范围300GB~300000GB。

partition_num

String

参数解释

Kafka实例的分区数量。

取值范围

不涉及。

used_storage_space

Integer

参数解释

已使用的消息存储空间,单位:GB。

取值范围

不涉及。

dns_enable

Boolean

参数解释

实例是否开启域名访问功能。

取值范围

  • true:开启

  • false:未开启

connect_address

String

参数解释

实例连接IP地址。

取值范围

不涉及。

port

Integer

参数解释

实例连接端口。

取值范围

不涉及。

status

String

参数解释

实例的状态。详细状态说明请参考实例状态说明

取值范围

不涉及。

instance_id

String

参数解释

实例ID。

取值范围

不涉及。

resource_spec_code

String

参数解释

资源规格标识。

取值范围

  • dms.instance.kafka.cluster.c3.mini:Kafka实例的基准带宽为100MByte/秒。

  • dms.instance.kafka.cluster.c3.small.2:Kafka实例的基准带宽为300MByte/秒。

  • dms.instance.kafka.cluster.c3.middle.2:Kafka实例的基准带宽为600MByte/秒。

  • dms.instance.kafka.cluster.c3.high.2:Kafka实例的基准带宽为1200MByte/秒。

charging_mode

Integer

参数解释

付费模式。

取值范围

  • 1表示按需计费。

  • 0表示包年/包月计费。

vpc_id

String

参数解释

VPC ID。

取值范围

不涉及。

vpc_name

String

参数解释

VPC的名称。

取值范围

不涉及。

created_at

String

参数解释

完成创建时间。

格式为时间戳,指从格林威治时间 1970年01月01日00时00分00秒起至指定时间的偏差总毫秒数。

取值范围

不涉及。

subnet_name

String

参数解释

子网名称。

取值范围

不涉及。

subnet_cidr

String

参数解释

子网网段。

取值范围

不涉及。

user_id

String

参数解释

用户ID。

取值范围

不涉及。

user_name

String

参数解释

用户名。

取值范围

不涉及。

access_user

String

参数解释

实例访问用户名。

取值范围

不涉及。

order_id

String

参数解释

订单ID,只有在包周期计费时才会有order_id值,其他计费方式order_id值为空。

取值范围

不涉及。

maintain_begin

String

参数解释

维护时间窗开始时间,格式为HH:mm:ss。

取值范围

不涉及。

maintain_end

String

参数解释

维护时间窗结束时间,格式为HH:mm:ss。

取值范围

不涉及。

enable_publicip

Boolean

参数解释

实例是否开启公网访问功能。

取值范围

  • true:开启

  • false:未开启

management_connect_address

String

参数解释

Kafka实例的Kafka Manager连接地址。

取值范围

不涉及。

ssl_enable

Boolean

参数解释

是否开启安全认证。

取值范围

  • true:开启

  • false:未开启

broker_ssl_enable

Boolean

参数解释

是否开启broker间副本加密传输。

取值范围

  • true:开启

  • false:未开启

kafka_security_protocol

String

参数解释

Kafka使用的安全协议。

若实例详情中不存在port_protocols返回参数,则kafka_security_protocol同时代表内网访问、公网访问以及跨VPC访问的安全协议。

若实例详情中存在port_protocols返回参数,则kafka_security_protocol仅代表跨VPC访问的安全协议。内网访问公网访问的安全协议请参考port_protocols参数。

取值范围

  • PLAINTEXT:既未采用SSL证书进行加密传输,也不支持账号密码认证。性能更好,安全性较低,建议在生产环境下公网访问不使用此方式。

  • SASL_SSL:采用SSL证书进行加密传输,支持账号密码认证,安全性更高。

  • SASL_PLAINTEXT:明文传输,支持账号密码认证,性能更好,建议使用SCRAM-SHA-512机制。

sasl_enabled_mechanisms

Array of strings

参数解释

开启SASL后使用的认证机制。

ssl_two_way_enable

Boolean

参数解释

是否开启双向认证。

取值范围

  • true:开启

  • false:未开启

cert_replaced

Boolean

参数解释

是否开启证书替换。

取值范围

  • true:开启

  • false:未开启

public_management_connect_address

String

参数解释

公网访问Kafka Manager连接地址。

取值范围

不涉及。

enterprise_project_id

String

参数解释

企业项目ID。

取值范围

不涉及。

is_logical_volume

Boolean

参数解释

实例扩容时用于区分老实例与新实例。

取值范围

  • true:新创建的实例,允许磁盘动态扩容不需要重启。

  • false:老实例。

extend_times

Integer

参数解释

实例扩容磁盘次数,如果超过20次则无法扩容磁盘。

取值范围

不涉及。

enable_auto_topic

Boolean

参数解释

是否开启自动创建topic。

取值范围

  • true:开启

  • false:关闭

type

String

参数解释

实例类型。

取值范围

  • single:单机。

  • cluster:集群。

product_id

String

参数解释

产品标识。

取值范围

不涉及。

security_group_id

String

参数解释

安全组ID。

取值范围

不涉及。

security_group_name

String

参数解释

安全组名称。

取值范围

不涉及。

subnet_id

String

参数解释

子网ID。

取值范围

不涉及。

available_zones

Array of strings

参数解释

实例节点所在的可用区,返回“可用区ID”。

available_zone_names

Array of strings

参数解释

实例节点所在的可用区名称,返回“可用区名称”。

total_storage_space

Integer

参数解释

总共消息存储空间,单位:GB。

取值范围

不涉及。

public_connect_address

String

参数解释

实例公网连接IP地址。当实例开启了公网访问,实例才包含该参数。

取值范围

不涉及。

public_connect_domain_name

String

参数解释

实例公网连接域名。当实例开启了公网访问,实例才包含该参数。

取值范围

不涉及。

storage_resource_id

String

参数解释

存储资源ID。

取值范围

不涉及。

storage_spec_code

String

参数解释

IO规格。

取值范围

不涉及。

service_type

String

参数解释

服务类型。

取值范围

advanced

storage_type

String

参数解释

存储类型。

取值范围

不涉及。

retention_policy

String

参数解释

消息老化策略。

取值范围

  • time_base:表示自动删除最老消息。

  • produce_reject:表示拒绝消息写入。

kafka_public_status

String

参数解释

Kafka公网开启状态。

取值范围

  • true:开启公网。

  • closed:关闭公网。

  • false:未使用公网。

  • freezed:公网冻结。

  • actived:公网解冻。

public_bandwidth

Integer

参数解释

kafka公网访问带宽。

取值范围

不涉及。

enable_log_collection

Boolean

参数解释

是否开启消息收集功能。

取值范围

  • true:开启

  • false:不开启

new_auth_cert

Boolean

参数解释

是否开启新证书。

取值范围

  • true:开启

  • false:不开启

cross_vpc_info

String

参数解释

跨VPC访问信息。

取值范围

不涉及。

ipv6_enable

Boolean

参数解释

是否开启IPv6。

取值范围

  • true:开启

  • false:不开启

ipv6_connect_addresses

Array of strings

参数解释

IPv6的连接地址。

connector_enable

Boolean

参数解释

是否开启转储。

取值范围

  • true:开启

  • false:不开启

connector_node_num

Integer

参数解释

connector节点数量。

取值范围

2-16。

connector_id

String

参数解释

转储任务ID。

取值范围

不涉及。

rest_enable

Boolean

参数解释

是否开启Kafka rest功能。

取值范围

  • true:开启

  • false:不开启

rest_connect_address

String

参数解释

Kafka rest连接地址。

取值范围

不涉及。

public_boundwidth

Integer

参数解释

Kafka公网访问带宽。待删除版本。

取值范围

不涉及。

message_query_inst_enable

Boolean

参数解释

是否开启消息查询功能。

取值范围

  • true:开启

  • false:不开启

vpc_client_plain

Boolean

参数解释

是否开启VPC明文访问。

取值范围

  • true:开启

  • false:不开启

support_features

String

参数解释

Kafka实例支持的特性功能。

取值范围

不涉及。

trace_enable

Boolean

参数解释

是否开启消息轨迹功能。

取值范围

  • true:开启

  • false:不开启

agent_enable

Boolean

参数解释

是否开启代理。

取值范围

  • true:开启

  • false:不开启

pod_connect_address

String

参数解释

租户侧连接地址。

取值范围

不涉及。

disk_encrypted

Boolean

参数解释

是否开启磁盘加密。

取值范围

  • true:开启

  • false:不开启

disk_encrypted_key

String

参数解释

磁盘加密key,未开启磁盘加密时为空。

取值范围

不涉及。

kafka_private_connect_address

String

参数解释

Kafka实例内网连接地址。

取值范围

不涉及。

kafka_private_connect_domain_name

String

参数解释

Kafka实例内网连接域名。

取值范围

不涉及。

ces_version

String

参数解释

云监控版本。

取值范围

不涉及。

public_access_enabled

String

参数解释

区分实例什么时候开启的公网访问

取值范围

  • true:已开启公网访问

  • actived:已开启公网访问

  • closed:已关闭公网访问

  • false:已关闭公网访问

node_num

Integer

参数解释

节点数。

取值范围

  • 1:kafka单机实例的节点数。

  • 3~50:kafka集群实例的节点数。

port_protocols

PortProtocolsEntity object

参数解释

实例支持的连接方式及其连接地址。

enable_acl

Boolean

参数解释

是否开启访问控制。

取值范围

  • true:开启

  • false:不开启

new_spec_billing_enable

Boolean

参数解释

是否启用新规格计费。

取值范围

  • true:开启

  • false:不开启

broker_num

Integer

参数解释

节点数量。

取值范围

不涉及。

tags

Array of TagEntity objects

参数解释

标签列表。

dr_enable

Boolean

参数解释

是否为容灾实例。

取值范围

  • true:是容灾实例。

  • false:不是容灾实例。

表5 PortProtocolsEntity

参数

参数类型

描述

private_plain_enable

Boolean

参数解释

实例是否支持内网PLAINTEXT访问接入方式。

取值范围

  • true:实例支持内网PLAINTEXT访问方式接入方式。

  • false:实例不支持内网PLAINTEXT访问接入方式。

private_plain_address

String

参数解释

kafka内网PLAINTEXT接入方式连接地址。

取值范围

不涉及

private_plain_domain_name

String

参数解释

内网明文连接域名。

取值范围

不涉及

private_sasl_ssl_enable

Boolean

参数解释

实例是否支持内网SASL_SSL访问接入方式。

取值范围

  • true:实例支持内网SASL_SSL访问方式接入方式。

  • false:实例不支持内网SASL_SSL访问接入方式。

private_sasl_ssl_address

String

参数解释

kafka内网SASL_SSL接入方式连接地址。

取值范围

不涉及

private_sasl_ssl_domain_name

String

参数解释

内网SASL_SSL连接域名。

取值范围

不涉及

private_sasl_plaintext_enable

Boolean

参数解释

实例是否支持内网SASL_PLAINTEXT访问接入方式。

取值范围

  • true:实例支持内网SASL_PLAINTEXT访问方式接入方式。

  • false:实例不支持内网SASL_PLAINTEXT访问接入方式。

private_sasl_plaintext_address

String

参数解释

kafka内网SASL_PLAINTEXT接入方式连接地址。

取值范围

不涉及

private_sasl_plaintext_domain_name

String

参数解释

内网SASL_PLAINTEXT连接域名。

取值范围

不涉及

public_plain_enable

Boolean

参数解释

实例是否支持公网PLAINTEXT访问接入方式。

取值范围

  • true:实例支持公网PLAINTEXT访问方式接入方式。

  • false:实例不支持公网PLAINTEXT访问接入方式。

public_plain_address

String

参数解释

kafka公网PLAINTEXT接入方式连接地址。

取值范围

不涉及

public_plain_domain_name

String

参数解释

公网明文连接域名。

取值范围

不涉及

public_sasl_ssl_enable

Boolean

参数解释

实例是否支持公网SASL_SSL访问接入方式。

取值范围

  • true:实例支持内网SASL_SSL访问方式接入方式。

  • false:实例不支持公网SASL_SSL访问接入方式。

public_sasl_ssl_address

String

参数解释

kafka公网SASL_SSL接入方式连接地址。

取值范围

不涉及

public_sasl_ssl_domain_name

String

参数解释

公网SASL_SSL连接域名。

取值范围

不涉及

public_sasl_plaintext_enable

Boolean

参数解释

实例是否支持公网SASL_PLAINTEXT访问接入方式。

取值范围

  • true:实例支持公网SASL_PLAINTEXT访问方式接入方式。

  • false:实例不支持公网SASL_PLAINTEXT访问接入方式。

public_sasl_plaintext_address

String

参数解释

kafka公网SASL_PLAINTEXT接入方式连接地址。

取值范围

不涉及

public_sasl_plaintext_domain_name

String

参数解释

公网SASL_PLAINTEXT连接域名。

取值范围

不涉及

表6 TagEntity

参数

参数类型

描述

key

String

参数解释

标签键。

约束限制

  • 不能为空。

  • 对于同一个实例,Key值唯一。

  • 长度为1~128个字符(中文也可以输入128个字符)。

  • 由任意语种字母、数字、空格和字符组成,字符仅支持_ . : = + - @

  • 不能以_sys_开头。

  • 首尾字符不能为空格。

取值范围

不涉及。

默认取值

不涉及。

value

String

参数解释

标签值。

约束限制

  • 长度为0~255个字符(中文也可以输入255个字符)。

  • 由任意语种字母、数字、空格和字符组成,字符仅支持_ . : = + - @

取值范围

不涉及。

默认取值

不涉及。

请求示例

查询所有实例列表

GET https://{endpoint}/v2/{project_id}/instances

响应示例

状态码:200

查询所有实例列表成功。

{
  "instances" : [ {
    "name" : "kafka-2085975099",
    "engine" : "kafka",
    "port" : 9092,
    "status" : "RUNNING",
    "type" : "cluster",
    "specification" : "100MB",
    "engine_version" : "1.1.0",
    "connect_address" : "192.168.0.100,192.168.0.61,192.168.0.72",
    "instance_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
    "resource_spec_code" : "dms.instance.kafka.cluster.c3.mini",
    "charging_mode" : 1,
    "vpc_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
    "vpc_name" : "dms-test",
    "created_at" : "1585618587087",
    "product_id" : "00300-30308-0--0",
    "security_group_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
    "security_group_name" : "Sys-default",
    "subnet_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
    "available_zones" : [ "38b0f7a602344246bcb0da47b5d548e7" ],
    "available_zone_names" : [ "AZ1" ],
    "user_id" : "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
    "user_name" : "paas_dms",
    "maintain_begin" : "02:00:00",
    "maintain_end" : "06:00:00",
    "enable_log_collection" : false,
    "new_auth_cert" : false,
    "storage_space" : 492,
    "total_storage_space" : 600,
    "used_storage_space" : 25,
    "partition_num" : "300",
    "enable_publicip" : false,
    "ssl_enable" : false,
    "broker_ssl_enable" : false,
    "cert_replaced" : false,
    "management_connect_address" : "https://192.168.0.100:9999",
    "cross_vpc_info" : "{\"192.168.0.61\":{\"advertised_ip\":\"192.168.0.61\",\"port\":9011,\"port_id\":\"xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx\"},\"192.168.0.72\":{\"advertised_ip\":\"192.168.0.72\",\"port\":9011,\"port_id\":\"xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx\"},\"192.168.0.100\":{\"advertised_ip\":\"192.168.0.100\",\"port\":9011,\"port_id\":\"xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx\"}}",
    "storage_resource_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
    "storage_spec_code" : "dms.physical.storage.ultra",
    "service_type" : "advanced",
    "storage_type" : "hec",
    "enterprise_project_id" : "0",
    "is_logical_volume" : true,
    "extend_times" : 0,
    "retention_policy" : "produce_reject",
    "ipv6_enable" : false,
    "ipv6_connect_addresses" : [ ],
    "connector_enable" : false,
    "connector_node_num" : 0,
    "connector_id" : "",
    "rest_enable" : false,
    "rest_connect_address" : "",
    "kafka_public_status" : "closed",
    "public_bandwidth" : 0,
    "message_query_inst_enable" : true,
    "vpc_client_plain" : false,
    "support_features" : "kafka.new.pod.port,feature.physerver.kafka.topic.modify,feature.physerver.kafka.topic.accesspolicy,message_trace_enable,features.pod.token.access,feature.physerver.kafka.pulbic.dynamic,roma_app_enable,features.log.collection,auto_topic_switch,feature.physerver.kafka.user.manager",
    "trace_enable" : false,
    "agent_enable" : false,
    "pod_connect_address" : "100.86.75.15:9080,100.86.142.77:9080,100.86.250.167:9080",
    "disk_encrypted" : false,
    "kafka_private_connect_address" : "192.168.0.61:9092,192.168.0.100:9092,192.168.0.72:9092",
    "enable_auto_topic" : false,
    "new_spec_billing_enable" : false,
    "ces_version" : "linux"
  } ],
  "instance_num" : 1
}

SDK代码示例

SDK代码示例如下。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
package com.huaweicloud.sdk.test;

import com.huaweicloud.sdk.core.auth.ICredential;
import com.huaweicloud.sdk.core.auth.BasicCredentials;
import com.huaweicloud.sdk.core.exception.ConnectionException;
import com.huaweicloud.sdk.core.exception.RequestTimeoutException;
import com.huaweicloud.sdk.core.exception.ServiceResponseException;
import com.huaweicloud.sdk.kafka.v2.region.KafkaRegion;
import com.huaweicloud.sdk.kafka.v2.*;
import com.huaweicloud.sdk.kafka.v2.model.*;


public class ListInstancesSolution {

    public static void main(String[] args) {
        // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security.
        // In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment
        String ak = System.getenv("CLOUD_SDK_AK");
        String sk = System.getenv("CLOUD_SDK_SK");
        String projectId = "{project_id}";

        ICredential auth = new BasicCredentials()
                .withProjectId(projectId)
                .withAk(ak)
                .withSk(sk);

        KafkaClient client = KafkaClient.newBuilder()
                .withCredential(auth)
                .withRegion(KafkaRegion.valueOf("<YOUR REGION>"))
                .build();
        ListInstancesRequest request = new ListInstancesRequest();
        try {
            ListInstancesResponse response = client.listInstances(request);
            System.out.println(response.toString());
        } catch (ConnectionException e) {
            e.printStackTrace();
        } catch (RequestTimeoutException e) {
            e.printStackTrace();
        } catch (ServiceResponseException e) {
            e.printStackTrace();
            System.out.println(e.getHttpStatusCode());
            System.out.println(e.getRequestId());
            System.out.println(e.getErrorCode());
            System.out.println(e.getErrorMsg());
        }
    }
}
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
# coding: utf-8

import os
from huaweicloudsdkcore.auth.credentials import BasicCredentials
from huaweicloudsdkkafka.v2.region.kafka_region import KafkaRegion
from huaweicloudsdkcore.exceptions import exceptions
from huaweicloudsdkkafka.v2 import *

if __name__ == "__main__":
    # The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security.
    # In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment
    ak = os.environ["CLOUD_SDK_AK"]
    sk = os.environ["CLOUD_SDK_SK"]
    projectId = "{project_id}"

    credentials = BasicCredentials(ak, sk, projectId)

    client = KafkaClient.new_builder() \
        .with_credentials(credentials) \
        .with_region(KafkaRegion.value_of("<YOUR REGION>")) \
        .build()

    try:
        request = ListInstancesRequest()
        response = client.list_instances(request)
        print(response)
    except exceptions.ClientRequestException as e:
        print(e.status_code)
        print(e.request_id)
        print(e.error_code)
        print(e.error_msg)
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
package main

import (
	"fmt"
	"github.com/huaweicloud/huaweicloud-sdk-go-v3/core/auth/basic"
    kafka "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2"
	"github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2/model"
    region "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2/region"
)

func main() {
    // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security.
    // In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment
    ak := os.Getenv("CLOUD_SDK_AK")
    sk := os.Getenv("CLOUD_SDK_SK")
    projectId := "{project_id}"

    auth := basic.NewCredentialsBuilder().
        WithAk(ak).
        WithSk(sk).
        WithProjectId(projectId).
        Build()

    client := kafka.NewKafkaClient(
        kafka.KafkaClientBuilder().
            WithRegion(region.ValueOf("<YOUR REGION>")).
            WithCredential(auth).
            Build())

    request := &model.ListInstancesRequest{}
	response, err := client.ListInstances(request)
	if err == nil {
        fmt.Printf("%+v\n", response)
    } else {
        fmt.Println(err)
    }
}

更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
package com.huaweicloud.sdk.test;

import com.huaweicloud.sdk.core.auth.ICredential;
import com.huaweicloud.sdk.core.auth.BasicCredentials;
import com.huaweicloud.sdk.core.exception.ConnectionException;
import com.huaweicloud.sdk.core.exception.RequestTimeoutException;
import com.huaweicloud.sdk.core.exception.ServiceResponseException;
import com.huaweicloud.sdk.kafka.v2.region.KafkaRegion;
import com.huaweicloud.sdk.kafka.v2.*;
import com.huaweicloud.sdk.kafka.v2.model.*;


public class ListInstancesSolution {

    public static void main(String[] args) {
        // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security.
        // In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment
        String ak = System.getenv("CLOUD_SDK_AK");
        String sk = System.getenv("CLOUD_SDK_SK");
        String projectId = "{project_id}";

        ICredential auth = new BasicCredentials()
                .withProjectId(projectId)
                .withAk(ak)
                .withSk(sk);

        KafkaClient client = KafkaClient.newBuilder()
                .withCredential(auth)
                .withRegion(KafkaRegion.valueOf("<YOUR REGION>"))
                .build();
        ListInstancesRequest request = new ListInstancesRequest();
        try {
            ListInstancesResponse response = client.listInstances(request);
            System.out.println(response.toString());
        } catch (ConnectionException e) {
            e.printStackTrace();
        } catch (RequestTimeoutException e) {
            e.printStackTrace();
        } catch (ServiceResponseException e) {
            e.printStackTrace();
            System.out.println(e.getHttpStatusCode());
            System.out.println(e.getRequestId());
            System.out.println(e.getErrorCode());
            System.out.println(e.getErrorMsg());
        }
    }
}
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
# coding: utf-8

import os
from huaweicloudsdkcore.auth.credentials import BasicCredentials
from huaweicloudsdkkafka.v2.region.kafka_region import KafkaRegion
from huaweicloudsdkcore.exceptions import exceptions
from huaweicloudsdkkafka.v2 import *

if __name__ == "__main__":
    # The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security.
    # In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment
    ak = os.environ["CLOUD_SDK_AK"]
    sk = os.environ["CLOUD_SDK_SK"]
    projectId = "{project_id}"

    credentials = BasicCredentials(ak, sk, projectId)

    client = KafkaClient.new_builder() \
        .with_credentials(credentials) \
        .with_region(KafkaRegion.value_of("<YOUR REGION>")) \
        .build()

    try:
        request = ListInstancesRequest()
        response = client.list_instances(request)
        print(response)
    except exceptions.ClientRequestException as e:
        print(e.status_code)
        print(e.request_id)
        print(e.error_code)
        print(e.error_msg)
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
package main

import (
	"fmt"
	"github.com/huaweicloud/huaweicloud-sdk-go-v3/core/auth/basic"
    kafka "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2"
	"github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2/model"
    region "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2/region"
)

func main() {
    // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security.
    // In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment
    ak := os.Getenv("CLOUD_SDK_AK")
    sk := os.Getenv("CLOUD_SDK_SK")
    projectId := "{project_id}"

    auth := basic.NewCredentialsBuilder().
        WithAk(ak).
        WithSk(sk).
        WithProjectId(projectId).
        Build()

    client := kafka.NewKafkaClient(
        kafka.KafkaClientBuilder().
            WithRegion(region.ValueOf("<YOUR REGION>")).
            WithCredential(auth).
            Build())

    request := &model.ListInstancesRequest{}
	response, err := client.ListInstances(request)
	if err == nil {
        fmt.Printf("%+v\n", response)
    } else {
        fmt.Println(err)
    }
}

更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。

状态码

状态码

描述

200

查询所有实例列表成功。

错误码

请参见错误码

提示

您即将访问非华为云网站,请注意账号财产安全

文档反馈
咨询盘古Doer

文档反馈

意见反馈

0/500

标记内容

同时提交标记内容