全球云服务分会场

海外L实例、X实例、AMD、鲲鹏等多种算力,助力企业拓展国际业务

 
 

    欧洲中部服务器 更多内容
  • 支持的加速区域

    非洲 南非共和国(约翰内斯堡)、埃及(开罗) 欧洲 欧洲 法国 (巴黎)、德国 (法兰克福) 如果您需要使用欧洲接入点,请提交工单为您的账号开通欧洲-都柏林区域的云联盟权限。 相关配置案例请参见如何实现华为云中国站使用欧洲接入点加速欧洲地区用户访问?

    来自:帮助中心

    查看更多 →

  • TOMCAT中部署ABI

    TOMCAT中部署ABI Windows操作系统 Linux操作系统 TOMCAT常用配置 父主题: ABI一站式数据分析平台

    来自:帮助中心

    查看更多 →

  • 在专属主机资源中部署云服务器

    进入专属主机信息页面。 在专属主机列表中,找到待创建云 服务器 的主机,单击“操作”中的“购买云服务器”。 进入购买云服务器页面。 具体操作请参见“购买弹性云服务器”。 如果单击界面右上方的“购买云服务器”创建云服务器,该场景为“不指定专属主机创建云服务器”。此时,要求租户的专属主机资源中,至少有

    来自:帮助中心

    查看更多 →

  • 如何实现华为云中国站使用欧洲接入点加速欧洲地区用户访问?

    如何实现华为云中国站使用欧洲接入点加速欧洲地区用户访问? 应用场景 华为云中国站的全球加速实例无法直接使用华为云欧洲站的接入点,如果中国站用户业务需要加速欧洲地区访问,需要通过云联盟区域进入华为云欧洲站,然后在欧洲站创建GA实例,后端可以选择中国站区域资源。反过来也是如此,欧洲站用户业务部署

    来自:帮助中心

    查看更多 →

  • Weblogic中部署ABI

    Weblogic中部署ABI 在Weblogic中创建Domain 部署ABI Weblogic单机双节点集群部署 Weblogic双机集群部署 向计算机分配服务器、检查配置概要 创建Weblogic域、集群中辅节点操作 启动集群服务 父主题: ABI一站式数据分析平台

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    在推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Caffe

    在CCE集群中部署使用Caffe 预置条件 资源准备 Caffe分类范例 父主题: 批量计算

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Spark

    在CCE集群中部署使用Spark 安装Spark 使用Spark on CCE 父主题: 批量计算

    来自:帮助中心

    查看更多 →

  • 在CCE Autopilot集群中部署Jenkins

    在CCE Autopilot集群中部署Jenkins CCE Autopilot集群部署Jenkins方案概述 资源和成本规划 实施步骤

    来自:帮助中心

    查看更多 →

  • Websphere中部署ABI

    Websphere中部署ABI 在Websphere8.5中部署 Websphere常用调配 Websphere集群部署 启动命令 父主题: ABI一站式数据分析平台

    来自:帮助中心

    查看更多 →

  • 在BMS中部署应用程序

    在BMS中部署应用程序 本章节简单介绍了如何在裸金属服务器中部署应用程序。 安装及启动Nginx 输入yum install nginx命令安装Nginx,当需要确认时输入“y”确认。 出现下图表示Nginx安装成功。 华为云内网提供了免费的YUM源、NTP服务、DNS服务,无需您手动搭建。

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Flink

    在CCE集群中部署使用Flink Flink是一个用于大规模数据处理的分布式流处理框架和计算引擎,可以处理有界(批处理)和无界(流处理)数据,提供低延迟、高吞吐量的实时数据处理能力,同时支持复杂事件处理和数据分析。在CCE集群中部署Flink,可以帮助您构建高效、可靠且灵活的数据

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Tensorflow

    在CCE集群中部署使用Tensorflow 资源准备 购买CCE集群,购买GPU节点并使用gpu-beta插件安装显卡驱动。 在集群下添加一个对象存储卷。 数据预置 从https://github.com/zalandoresearch/fashion-mnist下载数据。 获取

    来自:帮助中心

    查看更多 →

  • 在CCE集群中部署使用Kubeflow

    在CCE集群中部署使用Kubeflow Kubeflow部署 Tensorflow训练 使用Kubeflow和Volcano实现典型AI训练任务 父主题: 批量计算

    来自:帮助中心

    查看更多 →

  • 方式1:在本地通用服务器中部署流程引擎流程SDK

    关于如何获取SDK包请参见应用发布。 已在本地通用服务器中部署Node.js。 如果本地通用服务器未部署Node.js,请参见如何在本地通用服务器中部署流程运行服务依赖的Node.js环境?进行部署。 操作步骤 如下操作以CentOS 7.6 64位操作系统的E CS 为例。 登录Linux 弹性云服务器 。 将已获取的S

    来自:帮助中心

    查看更多 →

  • 方式1:在本地通用服务器中部署数据建模引擎运行SDK

    64位操作系统的ECS为例。 登录Linux弹性云服务器。 将已获取的SDK包和License文件上传至弹性云服务器,具体操作请参见上传文件到云服务器方式概览。 执行如下命令,将SDK包解压缩到部署服务器的工作目录。 tar -xvf {SDK包的名称} -C {部署服务器的工作目录} 例如,将SDK

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备权重文件 将OBS中的模型权重上传

    来自:帮助中心

    查看更多 →

  • 在推理生产环境中部署推理服务

    在推理生产环境中部署推理服务 本章节介绍如何在ModelArts的推理生产环境(ModelArts控制台的在线服务功能)中部署推理服务。 Step1 准备模型文件和权重文件 在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

    来自:帮助中心

    查看更多 →

  • 在Notebook调试环境中部署推理服务

    在Notebook调试环境中部署推理服务 在ModelArts的开发环境Notebook中可以部署推理服务进行调试。 Step1 准备Notebook 参考准备Notebook完成Notebook的创建,并打开Notebook。 Step2 准备模型代码包和权重文件 将OBS中的

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了