华为云

面向未来的智能世界,数字化是企业发展的必由之路。数字化成功的关键是以云原生的思维践行云原生,全数字化、全云化、AI驱动,一切皆服务。

华为云将持续创新,携手客户、合作伙伴和开发者,致力于让云无处不在,让智能无所不及,共建智能世界云底座。

 
 

    怎么在华为云部署项目 更多内容
  • 在CCE Autopilot集群中部署Jenkins

    CCE Autopilot集群中部署Jenkins CCE Autopilot集群部署Jenkins方案概述 资源和成本规划 实施步骤

    来自:帮助中心

    查看更多 →

  • GeminiDB部署在单个可用区

    GeminiDB部署单个可用区 规则详情 表1 规则详情 参数 说明 规则名称 gaussdb-nosql-deploy-in-single-az 规则展示名 GeminiDB部署单个可用区 规则描述 GeminiDB部署单个可用区中,视为“不合规”。 标签 gemini db

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Caffe

    CCE集群中部署使用Caffe 预置条件 资源准备 Caffe分类范例 父主题: 批量计算

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Spark

    CCE集群中部署使用Spark 安装Spark 使用Spark on CCE 父主题: 批量计算

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Tensorflow

    CCE集群中部署使用Tensorflow 资源准备 购买CCE集群,购买GPU节点并使用gpu-beta插件安装显卡驱动。 集群下添加一个对象存储卷。 数据预置 从https://github.com/zalandoresearch/fashion-mnist下载数据。 获取

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Flink

    CCE集群中部署使用Flink Flink是一个用于大规模数据处理的分布式流处理框架和计算引擎,可以处理有界(批处理)和无界(流处理)数据,提供低延迟、高吞吐量的实时数据处理能力,同时支持复杂事件处理和数据分析。CCE集群中部署Flink,可以帮助您构建高效、可靠且灵活的数据

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Kubeflow

    CCE集群中部署使用Kubeflow Kubeflow部署 Tensorflow训练 使用Kubeflow和Volcano实现典型AI训练任务 父主题: 批量计算

    来自:帮助中心

    查看更多 →

  • 基于华为云资源部署

    登录华为云 区块链 引擎服务管理控制台,单击左侧导航栏中的“服务管理”,选择华为云区块链引擎。 单击“操作记录”,查看各个资源的操作记录。 您可以按资源名称搜索操作记录,还可以资源所在行进行“操作详情”及“删除”操作。 父主题: 服务部署

    来自:帮助中心

    查看更多 →

  • 基于华为云资源部署

    基于华为云资源部署 创建华为云区块链引擎 创建Hyperledger Besu实例 父主题: 实例部署

    来自:帮助中心

    查看更多 →

  • proxy-agent部署失败怎么办?

    proxy-agent部署失败怎么办? 问题描述 集群中部署proxy-agent后,proxy-agent处于为非“Running”状态。 操作步骤 登录集群Master节点。 查看proxy-agent运行状态。 kubectl -n kube-system get pod

    来自:帮助中心

    查看更多 →

  • 在CCE中安装部署Jenkins方案概述

    Master发起请求,Master连接成功后,就可以Pod上面执行Job了。 图1 K8s安装Jenkins架构 操作流程 Jenkins Master安装部署。 Jenkins Master使用容器化镜像部署CCE集群中。 Jenkins Agent配置。 Jenkins可以集群中创建固定Agent

    来自:帮助中心

    查看更多 →

  • 项目

    如果您已开通企业项目,将不支持创建IAM项目。 创建项目 IAM控制台的左侧导航窗格中,选择“项目”页签,单击“创建项目”。 图2 创建项目 “所属区域”下拉列表中选择需要创建子项目的区域。 输入“项目名称”。 项目名称的格式为:区域默认项目名称_子项目名称,区域默认项目名称不允许修改。 项目名称可以由字

    来自:帮助中心

    查看更多 →

  • 项目

    和管理。创建、查询、设置内网 域名 和反向解析前,用户需先指定区域和项目,然后指定项目下执行相关操作。 父主题: 基本概念

    来自:帮助中心

    查看更多 →

  • 安装项目

    安装项目 项目发布的版本管理中,可下载对应版本的项目包并在其他环境安装项目。例如,A环境下载项目包,B环境安装。 约束与限制 B环境导入项目时,如果当前环境中不包含同名的数据源,会从项目包中安装数据源。新安装的数据源密码是空的,请在数据源中重新配置密码,也可以项目页面的“数据”页签,单击,重新配置。

    来自:帮助中心

    查看更多 →

  • 在CCE中实现应用高可用部署

    CCE中实现应用高可用部署 基本原则 CCE中,容器部署要实现高可用,可参考如下几点: 集群选择3个控制节点的高可用模式。 创建节点选择不同的可用区,多个可用区(AZ)多个节点的情况下,根据自身业务需求合理的配置自定义调度策略,可达到资源分配的最大化。 创建多个节点池,不

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    Notebook调试环境中部署推理服务 ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备模型代码包和权重文件 将OBS中的

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 OBS桶中,创建文件夹,准备ascend_vllm代码包、模型权重文件、推理启动脚本run_vllm.s

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了