弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    现在主流云服务器 更多内容
  • 如何通过创建委托授权安装ICAgent?

    权限的作用范围:指定区域项目资源。 委托创建成功后,设置委托生效。 进入弹性 云服务器 控制台。 单击需要安装ICAgent的弹性 服务器 名称,进入弹性云服务器参数配置页面。 您可以在购买E CS 机器时设置委托,请在“购买弹性云服务器”页面,“高级配置”中选择“现在配置”,在“委托”中选择已创建的委托名称。待剩余参数配置完成后,单击“立刻购买”即可。

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.910)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.910) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 eagle 投机小模型训练 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905)

    主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 父主题: LLM大语言模型训练推理

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 父主题: LLM大语言模型训练推理

    来自:帮助中心

    查看更多 →

  • 本地Windows主机使用WinSCP上传文件到Linux云服务器

    机使用WinSCP工具,上传文件至Linux云服务器的操作方法。本例中云服务器操作系统为CentOS 7.2。 前提条件 弹性云服务器状态为“运行中”。 弹性云服务器已经绑定弹性公网IP,绑定方式请参见绑定弹性公网IP。 弹性云服务器所在安全组入方向已开放22端口,配置方式请参见配置安全组规则。

    来自:帮助中心

    查看更多 →

  • 本地Windows主机使用WinSCP上传文件到Linux云服务器

    机使用WinSCP工具,上传文件至Linux云服务器的操作方法。本例中云服务器操作系统为CentOS 7.2。 前提条件 弹性云服务器状态为“运行中”。 弹性云服务器已经绑定弹性公网IP,绑定方式请参见绑定弹性公网IP。 弹性云服务器所在安全组入方向已开放22端口,配置方式请参见配置安全组规则。

    来自:帮助中心

    查看更多 →

  • 创建应用

    请确保添加的设备ID不重复。 单击“下一步:添加云服务器”。 添加云服务器。 添加GPU加速型云服务器,该云服务器用于部署应用,提供计算、图形实时渲染等功能。 部署云服务器:选择用于部署应用的云服务器。 新建:购买新的GPU加速型云服务器。 纳管:将在ECS页面创建的GPU加速型云服务器纳入到VR云渲游平台管理。

    来自:帮助中心

    查看更多 →

  • 日志管理使用说明

    日志管理使用说明 AOM支持容器服务日志和虚机(这里的虚机指操作系统为Linux的弹性云服务器 裸金属服务器 )日志采集,即采集您自定义的日志文件并展现在AOM界面中,以供您检索。 使用该功能前首先要配置日志采集路径,详情请参考配置日志采集路径。 图1 日志管理使用说明 父主题: 日志管理

    来自:帮助中心

    查看更多 →

  • 使用RDS for MySQL搭建WordPress

    安装WordPress 单击弹性云服务器实例列表“操作”列下的“远程登录”,远程登录弹性云服务器。 在本地windows浏览器里输入地址:http://弹性IP地址/wordpress,访问WordPress,单击“现在就开始!”。 其中,弹性IP地址为购买弹性云服务器时所创建的弹性IP地址。

    来自:帮助中心

    查看更多 →

  • 查看云硬盘详细信息

    (可选)导出云硬盘列表。 单击云硬盘列表右上角的,即可导出云硬盘列表。 通过云服务器控制台查看 登录管理控制台。 选择“计算 > 弹性云服务器”。 进入“弹性云服务器”页面。 在云服务器列表下,根据名称找到对应的云服务器,单击名称。 进入云服务器详情页。 在“云硬盘”页签下,单击待查看的云硬盘所在行的,展开详细信息,并单击云硬盘“ID”。

    来自:帮助中心

    查看更多 →

  • 云耀云服务器HECS和弹性云服务器ECS有什么区别?

    云耀云服务器HECS 弹性云服务器 ECS有什么区别? HECSECS区别概述 云耀云服务器:适用于中低负载业务场景,与弹性云服务器相比,云耀云服务器简化了购买ECS过程中的一些高级配置,一站式融合购买、登录、磁盘配置、网络配置、云监控、主机安全等多种功能,帮助您更加便捷高效的部署、配置和管理应用。

    来自:帮助中心

    查看更多 →

  • 主机安全

    和异常信息,将分析后的信息以检测报告的形式呈现在控制台界面。 HSS客户端: 接收HSS云端防护中心转发的检测任务。 按检测任务要求扫描弹性云服务器,并将事件扫描信息上报给HSS云端防护中心。 您在使用主机安全服务前,需要先在云服务器上安装客户端。更多信息,请参考主机安全。 父主题:

    来自:帮助中心

    查看更多 →

  • 应用场景

    oop、Spark等运算框架,对存储在OBS上的海量数据进行大数据分析,最终将分析的结果呈现在ECS中的各类程序或应用上。 建议搭配服务 MapReduce服务 MRS 弹性云服务器 ECS,数据快递服务 DES 图1 大数据分析 静态网站托管 场景描述 OBS提供低成本、高可用

    来自:帮助中心

    查看更多 →

  • 云硬盘概述

    云硬盘(Elastic Volume Service,EVS)可以为云耀云服务器提供高可靠、高性能、规格丰富并且可弹性扩展的块存储服务,满足不同场景的业务需求,适用于分布式文件系统、开发测试、 数据仓库 以及高性能计算等场景。 云硬盘的类型 云耀云服务器使用的云硬盘类型有如下几种: 高IO:该类型云硬盘的

    来自:帮助中心

    查看更多 →

  • 方案概述

    FunctionGraph和 对象存储服务 OBS桶,自动化实现定时批量创建删除弹性云服务器 ECS实例。通过使用华为云的 函数工作流 服务并配置定时触发器,同时用对象存储服务存储批量创建的云服务器实例ID信息,实现在预定时间批量创建云服务器实例,之后在预定时间再删除。适用于需要定时拓展和回收资源的类似潮汐算力的场景。

    来自:帮助中心

    查看更多 →

  • 给指定弹性云服务器添加标签(废弃)

    给指定弹性云服务器添加标签(废弃) 为弹性云服务器添加一个tag。 需在客户端通过以下HTTP header指定微版本号:X-OpenStack-Nova-API-Version: 2.26。 当前API已废弃,请使用批量添加云服务器标签。 接口约束 tag的长度不超过80个字符。

    来自:帮助中心

    查看更多 →

  • 配置消息订阅后可正常接收消息通知,但现在为什么无法接收了?

    配置消息订阅后可正常接收消息通知,但现在为什么无法接收了? 您可以从以下两方面进行初步排查: 检查服务器(订阅终端)是否可以正常访问。 检查协议是否一致,如消息接收地址为http协议,服务器为https协议,则无法收到订阅消息,需要将消息接收地址改为https。 若上述方法均无法

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.909)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.909) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明

    来自:帮助中心

    查看更多 →

  • 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)

    主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 父主题: LLM大语言模型训练推理

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了