云容器引擎 CCE

 

云容器引擎(Cloud Container Engine)提供高可靠高性能的企业级容器应用管理服务,支持Kubernetes社区原生应用和工具,简化云上自动化容器运行环境搭建

 
 

    容器云与虚拟化 更多内容
  • GPU虚拟化

    GPU虚拟化 GPU虚拟化概述 准备GPU虚拟化资源 使用GPU虚拟化 兼容Kubernetes默认GPU调度模式 父主题: GPU调度

    来自:帮助中心

    查看更多 →

  • 容器与Kubernetes

    容器Kubernetes 容器 Kubernetes 使用Kubectl命令操作集群

    来自:帮助中心

    查看更多 →

  • 容器安装与配置

    容器安装配置 为集群安装Agent 修改集群Agent安装信息 管理集群Agent 查看集群节点列表和权限列表 管理非集群节点Agent 接入三方镜像仓

    来自:帮助中心

    查看更多 →

  • 使用GPU虚拟化

    单个GPU卡最多虚拟化成20个GPU虚拟设备。 init容器不支持使用GPU虚拟化资源。 GPU虚拟化支持显存隔离、显存算力隔离两种隔离模式。单个GPU卡仅支持调度同一种隔离模式的工作负载。 使用GPU虚拟化后,不支持使用Autoscaler插件自动扩缩容GPU虚拟化节点。 XGPU服务的隔离功能不支持以UVM的方式申请显存,即调用CUDA

    来自:帮助中心

    查看更多 →

  • GPU虚拟化

    GPU虚拟化 GPU虚拟化概述 准备GPU虚拟化资源 创建GPU虚拟化应用 监控GPU虚拟化资源 父主题: 管理本地集群

    来自:帮助中心

    查看更多 →

  • GPU虚拟化概述

    GPU虚拟化概述 U CS On Premises GPU采用xGPU虚拟化技术,能够动态对GPU设备显存算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户定义使用的GPU数量,提高GPU利用率。

    来自:帮助中心

    查看更多 →

  • 容器调度与弹性插件

    容器调度弹性插件 Volcano调度器 CCE集群弹性引擎 CCE容器弹性引擎 CCE突发弹性引擎(对接CCI) 容器垂直弹性引擎 父主题: 插件

    来自:帮助中心

    查看更多 →

  • GPU虚拟化概述

    GPU)插件:2.0.5及以上版本 约束限制 单个GPU卡最多虚拟化成20个GPU虚拟设备。 init容器不支持使用GPU虚拟化资源。 GPU虚拟化支持显存隔离、显存算力隔离两种隔离模式。单个GPU卡仅支持调度同一种隔离模式的工作负载。 使用GPU虚拟化后,不支持使用Autoscaler插件自动扩缩容GPU虚拟化节点。

    来自:帮助中心

    查看更多 →

  • 准备GPU虚拟化资源

    准备GPU虚拟化资源 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。本文介绍如何在GPU节点上实现GPU的调度和隔离能力。 前提条件 配置 支持版本 集群版本 v1.23.8-r0、v1.25

    来自:帮助中心

    查看更多 →

  • 准备GPU虚拟化资源

    准备GPU虚拟化资源 本文介绍如何在使用GPU虚拟化能力前所需要的基础软件、硬件规划准备工作。 基础规划 配置 支持版本 集群版本 v1.25.15-r7及以上 操作系统 华为欧拉操作系统 2.0 系统架构 X86 GPU类型 T4、V100 GPU驱动版本 470.57.02、510

    来自:帮助中心

    查看更多 →

  • 容器与节点时区同步

    容器节点时区同步 案例场景 场景一:容器节点时区同步 场景二:容器容器日志节点时区同步 场景三:工作负载节点时区同步 场景一:容器节点时区同步 登录CCE控制台。 在创建工作负载基本信息页面,开启“时区同步”,即容器节点使用相同时区。 图1 开启时区同步 登录节点进入容器查询容器时区是否与节点保持一致。

    来自:帮助中心

    查看更多 →

  • 产品优势

    更轻松的迁移 由于Docker确保了执行环境的一致性,使得应用的迁移更加容易。Docker可以在很多平台上运行,无论是物理机、虚拟机、公有、私有,甚至是笔记本,其运行结果是一致的。因此用户可以很轻易地将在一个平台上运行的应用,迁移到另一个平台上,而不用担心运行环境的变化导致应用无法正常运行的情况。

    来自:帮助中心

    查看更多 →

  • 创建GPU虚拟化应用

    创建GPU虚拟化应用 本文介绍如何使用GPU虚拟化能力实现算力和显存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束限制 init容器不支持进行GPU虚拟化。

    来自:帮助中心

    查看更多 →

  • 容器

    容器容器引擎 CCE 容器 镜像服务 SWR 父主题: SCP授权参考

    来自:帮助中心

    查看更多 →

  • 容器

    容器 合理分配容器计算资源 升级实例过程中实现业务不中断 通过特权容器功能优化内核参数 使用Init容器初始化应用 容器节点时区同步 容器网络带宽限制的配置建议 使用hostAliases参数配置Pod的/etc/hosts文件 CCE容器 域名 解析的最佳实践 CCE中使用x86和ARM双架构镜像

    来自:帮助中心

    查看更多 →

  • 数据保护技术

    数据保护技术 云容器实例同时具备容器级别的启动速度和虚拟机级别的安全隔离能力,提供更好的容器体验。 原生支持Kata Container 基于Kata的内核虚拟化技术,为您提供全面的安全隔离防护 自有硬件虚拟化加速技术,让您获得更高性能的安全容器 图1 通过Kata容器实现多租户容器强隔离

    来自:帮助中心

    查看更多 →

  • 产品优势

    API 高安全 云容器实例同时具备容器级别的启动速度和虚拟机级别的安全隔离能力,提供更好的容器体验。 原生支持Kata Container 基于Kata的内核虚拟化技术,为您提供全面的安全隔离防护 自有硬件虚拟化加速技术,让您获得更高性能的安全容器 图1 通过Kata容器实现多租户容器强隔离

    来自:帮助中心

    查看更多 →

  • 应用模板

    使用同一个IP。 端口映射:容器网络虚拟化隔离,容器拥有单独的虚拟网络,容器外部通信需要与主机做端口映射。配置端口映射后,流向主机端口的流量会映射到对应的容器端口。例如容器端口80主机端口8080映射,那主机8080端口的流量会流向容器的80端口。 健康检查 应用存活探针:应

    来自:帮助中心

    查看更多 →

  • 监控GPU虚拟化资源

    监控GPU虚拟化资源 本章介绍如何在UCS控制台界面查看GPU虚拟化资源的全局监控指标。 前提条件 完成GPU虚拟化资源准备。 当前本地集群内存在节点开启GPU虚拟化能力。 当前本地集群开启了监控能力。 GPU虚拟化监控 登录UCS控制台,在左侧导航栏选择“容器智能分析”。 选择

    来自:帮助中心

    查看更多 →

  • XGPU视图

    每张GPU卡的不健康的GPU虚拟化设备的数量 容器显存分配量 字节 容器所能使用的显存上限 容器算力使用率 百分比 每个容器的算力使用率 计算公式:XGPU设备上容器算力使用量 / XGPU设备算力总量 容器显存使用量 字节 每个容器的显存使用量 容器显存使用率 百分比 每个容器的显存使用率 计算公式:XGPU设备上容器显存使用量

    来自:帮助中心

    查看更多 →

  • 兼容Kubernetes默认GPU调度模式

    开启该兼容能力后,使用nvidia.com/gpu配额时等价于开启虚拟化GPU显存隔离,可以和显存隔离模式的工作负载共用一张GPU卡,但不支持和算显隔离模式负载共用一张GPU卡。同时,还需遵循GPU虚拟化的其他约束限制。 未开启该兼容能力时,在工作负载中声明nvidia.com/gpu配额仅影响调

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了