云容器引擎 CCE

 

云容器引擎(Cloud Container Engine)提供高可靠高性能的企业级容器应用管理服务,支持Kubernetes社区原生应用和工具,简化云上自动化容器运行环境搭建

 
 

    容器云与虚拟化 更多内容
  • 容器安装与配置

    容器安装配置 为集群安装Agent 修改集群Agent安装信息 管理集群Agent 查看集群节点列表和权限列表 管理非集群节点Agent 接入三方镜像仓

    来自:帮助中心

    查看更多 →

  • 容器与Kubernetes

    容器Kubernetes 容器 Kubernetes 使用Kubectl命令操作集群

    来自:帮助中心

    查看更多 →

  • GPU虚拟化

    GPU虚拟化 GPU虚拟化概述 准备GPU虚拟化资源 使用GPU虚拟化 兼容Kubernetes默认GPU调度模式 父主题: GPU调度

    来自:帮助中心

    查看更多 →

  • GPU虚拟化概述

    GPU)插件:2.0.5及以上版本 约束限制 单个GPU卡最多虚拟化成20个GPU虚拟设备。 init容器不支持使用GPU虚拟化资源。 GPU虚拟化支持显存隔离、显存算力隔离两种隔离模式。单个GPU卡仅支持调度同一种隔离模式的工作负载。 使用GPU虚拟化后,不支持使用Autoscaler插件自动扩缩容GPU虚拟化节点。

    来自:帮助中心

    查看更多 →

  • 容器调度与弹性插件

    容器调度弹性插件 Volcano调度器 CCE集群弹性引擎 CCE容器弹性引擎 CCE突发弹性引擎(对接CCI) 容器垂直弹性引擎 父主题: 插件

    来自:帮助中心

    查看更多 →

  • 使用GPU虚拟化

    单个GPU卡最多虚拟化成20个GPU虚拟设备。 init容器不支持使用GPU虚拟化资源。 GPU虚拟化支持显存隔离、显存算力隔离两种隔离模式。单个GPU卡仅支持调度同一种隔离模式的工作负载。 使用GPU虚拟化后,不支持使用Autoscaler插件自动扩缩容GPU虚拟化节点。 XGPU服务的隔离功能不支持以UVM的方式申请显存,即调用CUDA

    来自:帮助中心

    查看更多 →

  • 准备GPU虚拟化资源

    准备GPU虚拟化资源 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。本文介绍如何在GPU节点上实现GPU的调度和隔离能力。 前提条件 配置 支持版本 集群版本 v1.23.8-r0、v1.25

    来自:帮助中心

    查看更多 →

  • 容器与节点时区同步

    容器节点时区同步 案例场景 场景一:容器节点时区同步 场景二:容器容器日志节点时区同步 场景三:工作负载节点时区同步 场景一:容器节点时区同步 登录CCE控制台。 在创建工作负载基本信息页面,开启“时区同步”,即容器节点使用相同时区。 图1 开启时区同步 登录节点进入容器查询容器时区是否与节点保持一致。

    来自:帮助中心

    查看更多 →

  • 产品优势

    更轻松的迁移 由于Docker确保了执行环境的一致性,使得应用的迁移更加容易。Docker可以在很多平台上运行,无论是物理机、虚拟机、公有、私有,甚至是笔记本,其运行结果是一致的。因此用户可以很轻易地将在一个平台上运行的应用,迁移到另一个平台上,而不用担心运行环境的变化导致应用无法正常运行的情况。

    来自:帮助中心

    查看更多 →

  • 准备GPU资源

    本文介绍如何在使用GPU能力前所需要的基础软件、硬件规划准备工作。 基础规划 配置 支持版本 集群版本 v1.25.15-r7及以上 操作系统 华为欧拉操作系统 2.0 系统架构 X86 GPU类型 T4、V100 驱动版本 GPU虚拟化功能仅支持470.57.02、510.47.03、535

    来自:帮助中心

    查看更多 →

  • gpu-device-plugin

    状态仅代表插件本身功能正常,驱动是否安装成功无关。 gpu型号只支持T4、V100。 本地集群只支持华为欧拉操作系统 2.0 x86系统架构类型。 纳管gpu节点前,请确保节点依赖libsecurec已安装。 前提条件 在集群中纳管支持GPU虚拟化的节点,具体操作步骤请参见纳管节点。

    来自:帮助中心

    查看更多 →

  • 创建GPU应用

    本文介绍如何使用GPU虚拟化能力实现算力和显存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束限制 init容器不支持进行GPU虚拟化。 对于单张GPU卡:

    来自:帮助中心

    查看更多 →

  • 数据保护技术

    数据保护技术 云容器实例同时具备容器级别的启动速度和虚拟机级别的安全隔离能力,提供更好的容器体验。 原生支持Kata Container 基于Kata的内核虚拟化技术,为您提供全面的安全隔离防护 自有硬件虚拟化加速技术,让您获得更高性能的安全容器 图1 通过Kata容器实现多租户容器强隔离

    来自:帮助中心

    查看更多 →

  • 产品优势

    API 高安全 云容器实例同时具备容器级别的启动速度和虚拟机级别的安全隔离能力,提供更好的容器体验。 原生支持Kata Container 基于Kata的内核虚拟化技术,为您提供全面的安全隔离防护 自有硬件虚拟化加速技术,让您获得更高性能的安全容器 图1 通过Kata容器实现多租户容器强隔离

    来自:帮助中心

    查看更多 →

  • XGPU视图

    每张GPU卡的不健康的GPU虚拟化设备的数量 容器显存分配量 字节 容器所能使用的显存上限 容器算力使用率 百分比 每个容器的算力使用率 计算公式:XGPU设备上容器算力使用量 / XGPU设备算力总量 容器显存使用量 字节 每个容器的显存使用量 容器显存使用率 百分比 每个容器的显存使用率 计算公式:XGPU设备上容器显存使用量

    来自:帮助中心

    查看更多 →

  • 容器

    容器 工作负载推荐配置 合理分配容器计算资源 升级实例过程中实现业务不中断 通过特权容器功能优化内核参数 使用Init容器初始化应用 容器节点时区同步 容器网络带宽限制的配置建议 使用hostAliases参数配置Pod的/etc/hosts文件 CCE容器 域名 解析的最佳实践

    来自:帮助中心

    查看更多 →

  • 容器

    容器容器引擎 CCE 容器 镜像服务 SWR 父主题: SCP授权参考

    来自:帮助中心

    查看更多 →

  • 如果不挂载云存储的话,容器运行产生的数据存储在哪里?

    如果不挂载存储的话,容器运行产生的数据存储在哪里? 如果没有挂载EVS等磁盘,应用数据存储在容器的物理机磁盘,每个Pod存储空间限制为CPU物理机磁盘为20G,GPU物理机磁盘为20G,如果为专属节点可根据客户需求进行调整。 为了确保数据的安全性,在创建容器容器引擎会从dev

    来自:帮助中心

    查看更多 →

  • 兼容Kubernetes默认GPU调度模式

    开启该兼容能力后,使用nvidia.com/gpu配额时等价于开启虚拟化GPU显存隔离,可以和显存隔离模式的工作负载共用一张GPU卡,但不支持和算显隔离模式负载共用一张GPU卡。同时,还需遵循GPU虚拟化的其他约束限制。 未开启该兼容能力时,在工作负载中声明nvidia.com/gpu配额仅影响调

    来自:帮助中心

    查看更多 →

  • 容器

    容器 容器组件是一种有位置布局能力的组件。拖动其他组件到容器内,对组件的布局进行设置。 在表单开发页面,从“基础组件”中拖拽“容器”组件至表单设计区域,并在设计好“容器”属性后,拖拽其他组件(如输入框、下拉框等)至“容器”中。如图1。 图1 容器 属性 字段状态:指成员在访问表单时,对该字段的可见、可编辑权限。

    来自:帮助中心

    查看更多 →

  • 容器

    容器 容器Docker 容器技术起源于Linux,是一种内核虚拟化技术,提供轻量级的虚拟化,以便隔离进程和资源。尽管容器技术已经出现很久,却是随着Docker的出现而变得广为人知。Docker是第一个使容器能在不同机器之间移植的系统。它不仅简化了打包应用的流程,也简化了打包应用

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了