创建一个namespaces 更多内容
  • 创建Operator项目

    创建Operator项目 背景 Operator是Kubernetes的扩展软件,通过定制资源管理应用和其他组件,实现一定自动运维能力。可以在不改动Kubernetes源码的情况下,通过一个或多个Operator来扩展集群能力,遵照自身业务需求、场景等灵活开发,节省运维成本。流程

    来自:帮助中心

    查看更多 →

  • 创建nacos命名空间

    创建nacos命名空间 功能介绍 创建nacos命名空间。 调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v1/{project_id}/nacos/v

    来自:帮助中心

    查看更多 →

  • 新建一个对账作业实例

    需要准备好对账的数据源,即通过管理中心分别创建数据连接,用于跨源数据对账。 操作步骤 建立跨源数据连接。 创建 DLI 数据连接。在 DataArts Studio 管理中心模块,单击创建数据连接,数据连接类型选择“ 数据湖探索 (DLI)”,输入数据连接名称,单击“测试”,提示连接成功,单击“确定”。 创建DWS数据连接。在DataArts

    来自:帮助中心

    查看更多 →

  • 开发一个DLI Spark作业

    资源管理”。单击“新建资源”,在数据开发模块中创建一个资源关联到1的JAR包,资源名称为“spark-example”。 图1 创建资源 提交Spark作业 用户需要在数据开发模块中创建一个作业,通过作业的DLI Spark节点提交Spark作业。 创建一个数据开发模块空作业,作业名称为“job_DLI_Spark”。

    来自:帮助中心

    查看更多 →

  • 开发一个Hive SQL作业

    数据连接:建立Hive的数据连接创建的连接。 开发Hive SQL作业 Hive SQL脚本开发完成后,我们为Hive SQL脚本构建一个周期执行的作业,使得该脚本能定期执行。 创建一个数据开发模块空作业,作业名称为“job_hive_sql”。 图2 创建job_hive_sql作业

    来自:帮助中心

    查看更多 →

  • 通过云原生日志采集插件采集容器日志

    e字段必须配置一个,但不能同时配置。 ltsStreamName:LTS日志流名称,若指定的日志流名称不存在,则会自动创建。 ltsStreamID和ltsStreamName字段必须配置一个,但不能同时配置。 ltsStreamCreateParam:日志流创建参数,可选字段,

    来自:帮助中心

    查看更多 →

  • 负载亲和调度策略

    拓扑域中的某个节点上,调度器会将本次创建的Pod优先调度到该拓扑域。 说明: 添加多条亲和性规则时,即设置多个标签筛选需要亲和的Pod,则本次创建的Pod会尽量同时亲和多个满足标签筛选的Pod。但即使所有Pod都不满足标签筛选条件,也会选择一个拓扑域进行调度。 工作负载反亲和性 必须满足

    来自:帮助中心

    查看更多 →

  • 第三方注册中心接入能力

    选择“命名空间”为“asm-system”,单击右上角“创建密钥”。 设置密钥参数,单击右下角“创建密钥”,完成密钥创建。 名称:自定义名称。例如:kubeconfig。 创建的密钥的名称不要使用mesh-kubeconfig,因为apiserver也会自动创建这个名字的密钥,如果使用了这个名称可能会被覆盖。

    来自:帮助中心

    查看更多 →

  • HBase REST API接口介绍

    model; } 在使用POST/PUT请求创建/修改表时,TableSchemaModel是用来创建模型的类。 检查以下步骤以了解如何使用不同的方式创建和修改命名空间。 使用xml的方式创建命名空间 在使用NamespacesInstanceModel创建模型后,以包含命名空间的路径,内容类型(调用类为'org

    来自:帮助中心

    查看更多 →

  • 获取killOp规则列表

    项目编号。 instance_id 是 String 实例ID,可以调用“查询实例列表和详情”接口获取。如果未申请实例,可以调用“创建实例”接口创建。 表2 Query参数 参数 是否必选 参数类型 描述 operation_types 否 String Sql语句操作类型。 insert,表示插入语句。

    来自:帮助中心

    查看更多 →

  • API调用异常

    例如有个名为a/b的镜像属于c组织: 调用查看镜像信息接口时需要把:GET /v2/manage/namespaces/c/repos/a/b 替换为:GET /v2/manage/namespaces/c/repos/a$b 父主题: 故障类

    来自:帮助中心

    查看更多 →

  • 同一个用户可以分多次订阅同一个资产吗

    一个用户可以分多次订阅同一个资产吗 问题 同一个用户订阅可以分多次订购同一个资源吗?比如:API 人脸识别 ,第一次10路,第二次20路。 回答 目前暂时不支持,后续如果是通用场景,或者客户紧急要求,会收编到基线。 父主题: 操作使用相关

    来自:帮助中心

    查看更多 →

  • 如何从一个区域迁移ECS到另一个区域下?

    如何从一个区域迁移E CS 到另一个区域下? 当您因业务需要,需要从一个区域迁移ECS到另一个区域,如从华南-广州迁移到华北-北京一,需在华南-广州的ECS中安装Agent,创建迁移任务时,目的端区域选择华北-北京一。 A账号下的ECS迁移到B账号请参见如何迁移一个账号下的 弹性云服务器 到另一个账号下?。

    来自:帮助中心

    查看更多 →

  • 步骤1:新建一个应用

    stro低代码平台。 表单管理:表单用于收集和存储业务数据,想录入的任何数据,都需要建立对应的表单。创建应用后可由此创建多个表单,组建成一个完整的业务管理系统。 流程管理:通过创建流程,设置审批节点完成特定业务的审批。 应用设置:设置应用的基本信息,如修改应用的图标、名称等。 应

    来自:帮助中心

    查看更多 →

  • 开发一个DWS SQL作业

    关键参数说明: 集群名:环境准备中创建的DWS集群名称。 绑定Agent:环境准备中创建 CDM 集群。 创建数据库 在DWS中创建数据库,以“gaussdb”数据库为例。创建数据库的详情请参考新建数据库进行操作。 创建数据表 在“gaussdb”数据库中创建数据表trade_log和t

    来自:帮助中心

    查看更多 →

  • 开发一个MRS Flink作业

    开发一个 MRS Flink作业 本章节介绍如何在数据开发模块上进行MRS Flink作业开发。 场景说明 本教程通过开发一个MRS Flink作业来实现统计单词的个数。 前提条件 具有OBS相关路径的访问权限。 已开通 MapReduce服务 MRS,并创建MRS集群。 数据准备 下

    来自:帮助中心

    查看更多 →

  • 删除一个检测任务记录

    删除一个检测任务记录 功能介绍 该接口用于删除一个检测任务记录。 调用方法 请参见如何调用API。 URI DELETE /v1.0/{project_id}/clusters/{cluster_id}/ai-ops/{aiops_id} 表1 路径参数 参数 是否必选 参数类型

    来自:帮助中心

    查看更多 →

  • 预置角色

    预置角色是系统自动生成的角色信息,客户端可用的预置角色名称有read,readWrite。 mongodb使用角色来管理数据库的,所以创建一个用户时就需要赋予一个角色。角色除了内置之外,也可以自定义角色。 表1 常见内置角色 角色 权限描述 包含的操作命令 read read角色包含读取

    来自:帮助中心

    查看更多 →

  • 移动端(Android/iOS)创建一个房间,是否支持PC端(MAC/Windows)接入?

    移动端(Android/iOS)创建一个房间,是否支持PC端(MAC/Windows)接入? 支持,SparkRTC支持全平台互通。 父主题: SDK使用

    来自:帮助中心

    查看更多 →

  • 如何让多个Pod均匀部署到各个节点上?

    Kubernetes中kube-scheduler组件负责Pod的调度,对每一个创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler 给一个 Pod 做调度选择包含过滤和打分两个步骤。过滤阶段会将所有满足

    来自:帮助中心

    查看更多 →

  • 创建killOp规则

    创建killOp规则 接口说明 创建killOp规则。 约束说明 仅支持副本集,集群实例。 仅支持数据库版本3.4版本及以后版本。 仅支持执行节点规格4U及以上。 每个实例最多创建10个killOp规则。 规则创建后为禁用状态。 调试 您可以在API Explorer中调试该接口。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了