查询所有实例列表
功能介绍
查询租户的实例列表,支持按照条件查询。
调用方法
请参见如何调用API。
URI
GET /v2/{project_id}/instances
参数 |
是否必选 |
参数类型 |
描述 |
---|---|---|---|
project_id |
是 |
String |
项目ID,获取方式请参见获取项目ID。 |
参数 |
是否必选 |
参数类型 |
描述 |
---|---|---|---|
engine |
是 |
String |
消息引擎:kafka。 |
name |
否 |
String |
实例名称。 |
instance_id |
否 |
String |
实例ID。 |
status |
否 |
String |
实例状态。 详细状态说明请参考实例状态说明。 |
include_failure |
否 |
String |
是否返回创建失败的实例数。 当参数值为“true”时,返回创建失败的实例数。参数值为“false”,不返回创建失败的实例数。 |
exact_match_name |
否 |
String |
是否按照实例名称进行精确匹配查询。 默认为“false”,表示模糊匹配实例名称查询。若参数值为“true”表示按照实例名称进行精确匹配查询。 |
enterprise_project_id |
否 |
String |
企业项目ID。 |
offset |
否 |
String |
偏移量,表示从此偏移量开始查询, offset大于等于0。 |
limit |
否 |
String |
当次查询返回的最大实例个数,默认值为10,取值范围为1~50。 |
请求参数
无
响应参数
状态码: 200
参数 |
参数类型 |
描述 |
---|---|---|
instances |
Array of ShowInstanceResp objects |
实例列表 |
instance_num |
Integer |
实例数量。 |
参数 |
参数类型 |
描述 |
---|---|---|
name |
String |
实例名称。 |
engine |
String |
引擎。 |
engine_version |
String |
版本。 |
description |
String |
实例描述。 |
specification |
String |
实例规格。 |
storage_space |
Integer |
消息存储空间,单位:GB。 |
partition_num |
String |
Kafka实例的分区数量。 |
used_storage_space |
Integer |
已使用的消息存储空间,单位:GB。 |
dns_enable |
Boolean |
实例是否开启域名访问功能。
|
connect_address |
String |
实例连接IP地址。 |
port |
Integer |
实例连接端口。 |
status |
String |
实例的状态。详细状态说明请参考实例状态说明。 |
instance_id |
String |
实例ID。 |
resource_spec_code |
String |
资源规格标识。
|
charging_mode |
Integer |
付费模式,1表示按需计费,0表示包年/包月计费。 |
vpc_id |
String |
VPC ID。 |
vpc_name |
String |
VPC的名称。 |
created_at |
String |
完成创建时间。 格式为时间戳,指从格林威治时间 1970年01月01日00时00分00秒起至指定时间的偏差总毫秒数。 |
subnet_name |
String |
子网名称。 |
subnet_cidr |
String |
子网网段。 |
user_id |
String |
用户ID。 |
user_name |
String |
用户名。 |
access_user |
String |
实例访问用户名。 |
order_id |
String |
订单ID,只有在包周期计费时才会有order_id值,其他计费方式order_id值为空。 |
maintain_begin |
String |
维护时间窗开始时间,格式为HH:mm:ss。 |
maintain_end |
String |
维护时间窗结束时间,格式为HH:mm:ss。 |
enable_publicip |
Boolean |
实例是否开启公网访问功能。
|
management_connect_address |
String |
Kafka实例的Kafka Manager连接地址。 |
ssl_enable |
Boolean |
是否开启安全认证。
|
broker_ssl_enable |
Boolean |
是否开启broker间副本加密传输。
|
kafka_security_protocol |
String |
开启SASL后使用的安全协议。
|
sasl_enabled_mechanisms |
Array of strings |
开启SASL后使用的认证机制。
|
ssl_two_way_enable |
Boolean |
是否开启双向认证。 |
cert_replaced |
Boolean |
是否能够证书替换。 |
public_management_connect_address |
String |
公网访问Kafka Manager连接地址。 |
enterprise_project_id |
String |
企业项目ID。 |
is_logical_volume |
Boolean |
实例扩容时用于区分老实例与新实例。
|
extend_times |
Integer |
实例扩容磁盘次数,如果超过20次则无法扩容磁盘。 |
enable_auto_topic |
Boolean |
是否打开kafka自动创建topic功能。
|
type |
String |
实例类型:集群,cluster。 |
product_id |
String |
产品标识。 |
security_group_id |
String |
安全组ID。 |
security_group_name |
String |
租户安全组名称。 |
subnet_id |
String |
子网ID。 |
available_zones |
Array of strings |
实例节点所在的可用区,返回“可用区ID”。 |
available_zone_names |
Array of strings |
实例节点所在的可用区名称,返回“可用区名称”。 |
total_storage_space |
Integer |
总共消息存储空间,单位:GB。 |
public_connect_address |
String |
实例公网连接IP地址。当实例开启了公网访问,实例才包含该参数。 |
public_connect_domain_name |
String |
实例公网连接域名。当实例开启了公网访问,实例才包含该参数。 |
storage_resource_id |
String |
存储资源ID。 |
storage_spec_code |
String |
IO规格。 |
service_type |
String |
服务类型。 |
storage_type |
String |
存储类型。 |
retention_policy |
String |
消息老化策略。 |
kafka_public_status |
String |
Kafka公网开启状态。 |
public_bandwidth |
Integer |
kafka公网访问带宽。 |
enable_log_collection |
Boolean |
是否开启消息收集功能。 |
new_auth_cert |
Boolean |
是否开启新证书。 |
cross_vpc_info |
String |
跨VPC访问信息。 |
ipv6_enable |
Boolean |
是否开启ipv6。 |
ipv6_connect_addresses |
Array of strings |
IPv6的连接地址。 |
connector_enable |
Boolean |
是否开启转储。新规格产品暂不支持开启转储。 |
connector_node_num |
Integer |
connector节点数量。 |
connector_id |
String |
转储任务ID。 |
rest_enable |
Boolean |
是否开启Kafka rest功能。 |
rest_connect_address |
String |
Kafka rest连接地址。 |
public_boundwidth |
Integer |
kafka公网访问带宽。待删除版本。 |
message_query_inst_enable |
Boolean |
是否开启消息查询功能。 |
vpc_client_plain |
Boolean |
是否开启VPC明文访问。 |
support_features |
String |
Kafka实例支持的特性功能。 |
trace_enable |
Boolean |
是否开启消息轨迹功能。 |
agent_enable |
Boolean |
是否开启代理。 |
pod_connect_address |
String |
租户侧连接地址。 |
disk_encrypted |
Boolean |
是否开启磁盘加密。 |
disk_encrypted_key |
String |
磁盘加密key,未开启磁盘加密时为空。 |
kafka_private_connect_address |
String |
Kafka实例内网连接地址。 |
kafka_private_connect_domain_name |
String |
Kafka实例内网连接域名。 |
ces_version |
String |
云监控版本。 |
public_access_enabled |
String |
区分实例什么时候开启的公网访问 取值范围:
|
node_num |
Integer |
节点数。 |
port_protocols |
PortProtocolsEntity object |
实例支持的连接方式及其连接地址。 |
enable_acl |
Boolean |
是否开启访问控制。 |
new_spec_billing_enable |
Boolean |
是否启用新规格计费。 |
broker_num |
Integer |
节点数量。 |
tags |
Array of TagEntity objects |
标签列表。 |
dr_enable |
Boolean |
是否为容灾实例。 |
参数 |
参数类型 |
描述 |
---|---|---|
private_plain_enable |
Boolean |
实例是否支持内网PLAINTEXT访问接入方式。
|
private_plain_address |
String |
kafka内网PLAINTEXT接入方式连接地址。 |
private_plain_domain_name |
String |
内网明文连接域名 |
private_sasl_ssl_enable |
Boolean |
实例是否支持内网SASL_SSL访问接入方式。
|
private_sasl_ssl_address |
String |
kafka内网SASL_SSL接入方式连接地址。 |
private_sasl_ssl_domain_name |
String |
内网SASL_SSL连接域名 |
private_sasl_plaintext_enable |
Boolean |
实例是否支持内网SASL_PLAINTEXT访问接入方式。
|
private_sasl_plaintext_address |
String |
kafka内网SASL_PLAINTEXT接入方式连接地址。 |
private_sasl_plaintext_domain_name |
String |
内网SASL_PLAINTEXT连接域名 |
public_plain_enable |
Boolean |
实例是否支持公网PLAINTEXT访问接入方式。
|
public_plain_address |
String |
kafka公网PLAINTEXT接入方式连接地址。 |
public_plain_domain_name |
String |
公网明文连接域名 |
public_sasl_ssl_enable |
Boolean |
实例是否支持公网SASL_SSL访问接入方式。
|
public_sasl_ssl_address |
String |
kafka公网SASL_SSL接入方式连接地址。 |
public_sasl_ssl_domain_name |
String |
公网SASL_SSL连接域名 |
public_sasl_plaintext_enable |
Boolean |
实例是否支持公网SASL_PLAINTEXT访问接入方式。
|
public_sasl_plaintext_address |
String |
kafka公网SASL_PLAINTEXT接入方式连接地址。 |
public_sasl_plaintext_domain_name |
String |
公网SASL_PLAINTEXT连接域名 |
请求示例
查询所有实例列表
GET https://{endpoint}/v2/{project_id}/instances
响应示例
状态码: 200
查询所有实例列表成功。
-
查询所有实例列表成功返回示例如下。
{ "instances" : [ { "name" : "kafka-2085975099", "engine" : "kafka", "port" : 9092, "status" : "RUNNING", "type" : "cluster", "specification" : "100MB", "engine_version" : "1.1.0", "connect_address" : "192.168.0.100,192.168.0.61,192.168.0.72", "instance_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx", "resource_spec_code" : "dms.instance.kafka.cluster.c3.mini", "charging_mode" : 1, "vpc_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx", "vpc_name" : "dms-test", "created_at" : "1585618587087", "product_id" : "00300-30308-0--0", "security_group_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx", "security_group_name" : "Sys-default", "subnet_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx", "available_zones" : [ "38b0f7a602344246bcb0da47b5d548e7" ], "available_zone_names" : [ "AZ1" ], "user_id" : "xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", "user_name" : "paas_dms", "maintain_begin" : "02:00:00", "maintain_end" : "06:00:00", "enable_log_collection" : false, "new_auth_cert" : false, "storage_space" : 492, "total_storage_space" : 600, "used_storage_space" : 25, "partition_num" : "300", "enable_publicip" : false, "ssl_enable" : false, "broker_ssl_enable" : false, "cert_replaced" : false, "management_connect_address" : "https://192.168.0.100:9999", "cross_vpc_info" : "{\"192.168.0.61\":{\"advertised_ip\":\"192.168.0.61\",\"port\":9011,\"port_id\":\"xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx\"},\"192.168.0.72\":{\"advertised_ip\":\"192.168.0.72\",\"port\":9011,\"port_id\":\"xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx\"},\"192.168.0.100\":{\"advertised_ip\":\"192.168.0.100\",\"port\":9011,\"port_id\":\"xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx\"}}", "storage_resource_id" : "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx", "storage_spec_code" : "dms.physical.storage.ultra", "service_type" : "advanced", "storage_type" : "hec", "enterprise_project_id" : "0", "is_logical_volume" : true, "extend_times" : 0, "retention_policy" : "produce_reject", "ipv6_enable" : false, "ipv6_connect_addresses" : [ ], "connector_enable" : false, "connector_node_num" : 0, "connector_id" : "", "rest_enable" : false, "rest_connect_address" : "", "kafka_public_status" : "closed", "public_bandwidth" : 0, "message_query_inst_enable" : true, "vpc_client_plain" : false, "support_features" : "kafka.new.pod.port,feature.physerver.kafka.topic.modify,feature.physerver.kafka.topic.accesspolicy,message_trace_enable,features.pod.token.access,feature.physerver.kafka.pulbic.dynamic,roma_app_enable,features.log.collection,auto_topic_switch,feature.physerver.kafka.user.manager", "trace_enable" : false, "agent_enable" : false, "pod_connect_address" : "100.86.75.15:9080,100.86.142.77:9080,100.86.250.167:9080", "disk_encrypted" : false, "kafka_private_connect_address" : "192.168.0.61:9092,192.168.0.100:9092,192.168.0.72:9092", "enable_auto_topic" : false, "new_spec_billing_enable" : false, "ces_version" : "linux" } ], "instance_num" : 1 }
SDK代码示例
SDK代码示例如下。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 |
package com.huaweicloud.sdk.test; import com.huaweicloud.sdk.core.auth.ICredential; import com.huaweicloud.sdk.core.auth.BasicCredentials; import com.huaweicloud.sdk.core.exception.ConnectionException; import com.huaweicloud.sdk.core.exception.RequestTimeoutException; import com.huaweicloud.sdk.core.exception.ServiceResponseException; import com.huaweicloud.sdk.kafka.v2.region.KafkaRegion; import com.huaweicloud.sdk.kafka.v2.*; import com.huaweicloud.sdk.kafka.v2.model.*; public class ListInstancesSolution { public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security. // In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment String ak = System.getenv("CLOUD_SDK_AK"); String sk = System.getenv("CLOUD_SDK_SK"); String projectId = "{project_id}"; ICredential auth = new BasicCredentials() .withProjectId(projectId) .withAk(ak) .withSk(sk); KafkaClient client = KafkaClient.newBuilder() .withCredential(auth) .withRegion(KafkaRegion.valueOf("<YOUR REGION>")) .build(); ListInstancesRequest request = new ListInstancesRequest(); try { ListInstancesResponse response = client.listInstances(request); System.out.println(response.toString()); } catch (ConnectionException e) { e.printStackTrace(); } catch (RequestTimeoutException e) { e.printStackTrace(); } catch (ServiceResponseException e) { e.printStackTrace(); System.out.println(e.getHttpStatusCode()); System.out.println(e.getRequestId()); System.out.println(e.getErrorCode()); System.out.println(e.getErrorMsg()); } } } |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 |
# coding: utf-8 import os from huaweicloudsdkcore.auth.credentials import BasicCredentials from huaweicloudsdkkafka.v2.region.kafka_region import KafkaRegion from huaweicloudsdkcore.exceptions import exceptions from huaweicloudsdkkafka.v2 import * if __name__ == "__main__": # The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security. # In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"] projectId = "{project_id}" credentials = BasicCredentials(ak, sk, projectId) client = KafkaClient.new_builder() \ .with_credentials(credentials) \ .with_region(KafkaRegion.value_of("<YOUR REGION>")) \ .build() try: request = ListInstancesRequest() response = client.list_instances(request) print(response) except exceptions.ClientRequestException as e: print(e.status_code) print(e.request_id) print(e.error_code) print(e.error_msg) |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
package main import ( "fmt" "github.com/huaweicloud/huaweicloud-sdk-go-v3/core/auth/basic" kafka "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2" "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2/model" region "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/kafka/v2/region" ) func main() { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted during use to ensure security. // In this example, AK and SK are stored in environment variables for authentication. Before running this example, set environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak := os.Getenv("CLOUD_SDK_AK") sk := os.Getenv("CLOUD_SDK_SK") projectId := "{project_id}" auth := basic.NewCredentialsBuilder(). WithAk(ak). WithSk(sk). WithProjectId(projectId). Build() client := kafka.NewKafkaClient( kafka.KafkaClientBuilder(). WithRegion(region.ValueOf("<YOUR REGION>")). WithCredential(auth). Build()) request := &model.ListInstancesRequest{} response, err := client.ListInstances(request) if err == nil { fmt.Printf("%+v\n", response) } else { fmt.Println(err) } } |
更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。
状态码
状态码 |
描述 |
---|---|
200 |
查询所有实例列表成功。 |
错误码
请参见错误码。