Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Cómputo
Elastic Cloud Server
Bare Metal Server
Auto Scaling
Image Management Service
Dedicated Host
FunctionGraph
Cloud Phone Host
Huawei Cloud EulerOS
Redes
Virtual Private Cloud
Elastic IP
Elastic Load Balance
NAT Gateway
Direct Connect
Virtual Private Network
VPC Endpoint
Cloud Connect
Enterprise Router
Enterprise Switch
Global Accelerator
Gestión y gobernanza
Cloud Eye
Identity and Access Management
Cloud Trace Service
Resource Formation Service
Tag Management Service
Log Tank Service
Config
Resource Access Manager
Simple Message Notification
Application Performance Management
Application Operations Management
Organizations
Optimization Advisor
Cloud Operations Center
Resource Governance Center
Migración
Server Migration Service
Object Storage Migration Service
Cloud Data Migration
Migration Center
Cloud Ecosystem
KooGallery
Partner Center
User Support
My Account
Billing Center
Cost Center
Resource Center
Enterprise Management
Service Tickets
HUAWEI CLOUD (International) FAQs
ICP Filing
Support Plans
My Credentials
Customer Operation Capabilities
Partner Support Plans
Professional Services
Análisis
MapReduce Service
Data Lake Insight
CloudTable Service
Cloud Search Service
Data Lake Visualization
Data Ingestion Service
GaussDB(DWS)
DataArts Studio
IoT
IoT Device Access
Otros
Product Pricing Details
System Permissions
Console Quick Start
Common FAQs
Instructions for Associating with a HUAWEI CLOUD Partner
Message Center
Seguridad y cumplimiento
Security Technologies and Applications
Web Application Firewall
Host Security Service
Cloud Firewall
SecMaster
Data Encryption Workshop
Database Security Service
Cloud Bastion Host
Data Security Center
Cloud Certificate Manager
Blockchain
Blockchain Service
Servicios multimedia
Media Processing Center
Video On Demand
Live
SparkRTC
Almacenamiento
Object Storage Service
Elastic Volume Service
Cloud Backup and Recovery
Storage Disaster Recovery Service
Scalable File Service
Volume Backup Service
Cloud Server Backup Service
Data Express Service
Dedicated Distributed Storage Service
Contenedores
Cloud Container Engine
SoftWare Repository for Container
Application Service Mesh
Ubiquitous Cloud Native Service
Cloud Container Instance
Bases de datos
Relational Database Service
Document Database Service
Data Admin Service
Data Replication Service
GeminiDB
GaussDB
Distributed Database Middleware
Database and Application Migration UGO
TaurusDB
Middleware
Distributed Cache Service
API Gateway
Distributed Message Service for Kafka
Distributed Message Service for RabbitMQ
Distributed Message Service for RocketMQ
Cloud Service Engine
EventGrid
Dedicated Cloud
Dedicated Computing Cluster
Aplicaciones empresariales
ROMA Connect
Message & SMS
Domain Name Service
Edge Data Center Management
Meeting
AI
Face Recognition Service
Graph Engine Service
Content Moderation
Image Recognition
Data Lake Factory
Optical Character Recognition
ModelArts
ImageSearch
Conversational Bot Service
Speech Interaction Service
Huawei HiLens
Developer Tools
SDK Developer Guide
API Request Signing Guide
Terraform
Koo Command Line Interface
Distribución de contenido y cómputo de borde
Content Delivery Network
Intelligent EdgeFabric
CloudPond
Soluciones
SAP Cloud
High Performance Computing
Servicios para desarrolladores
ServiceStage
CodeArts
CodeArts PerfTest
CodeArts Req
CodeArts Pipeline
CodeArts Build
CodeArts Deploy
CodeArts Artifact
CodeArts TestPlan
CodeArts Check
Cloud Application Engine
aPaaS MacroVerse
KooPhone
KooDrive
Centro de ayuda/ ModelArts/ Preguntas frecuentes/ Cuestiones generales/ ¿Qué marcos de IA admite ModelArts?

¿Qué marcos de IA admite ModelArts?

Actualización más reciente 2023-10-09 GMT+08:00

Los marcos y versiones de IA compatibles con ModelArts varían ligeramente según el notebook de entorno de desarrollo, los trabajos de entrenamiento y la inferencia de modelos (gestión y despliegue de aplicaciones de IA). A continuación se describen los marcos de IA soportados por cada módulo.

Notebook de entorno de desarrollo

La imagen y las versiones compatibles con las instancias de notebook de entorno de desarrollo varían según los entornos de tiempo de ejecución.

Tabla 1 Imágenes soportadas por el notebook de la nueva versión

Imagen

Descripción

Chip soportado

SSH remoto

JupyterLab en línea

pytorch1.8-cuda10.2-cudnn7-ubuntu18.04

Imagen pública impulsada por CPU o GPU para desarrollo y entrenamiento de algoritmos generales, con el motor de IA integrado PyTorch 1.8

CPU o GPU

mindspore1.7.0-cuda10.1-py3.7-ubuntu18.04

Desarrollo y entrenamiento de algoritmos generales basados en CPU o GPU, preconfigurados con el motor de IA MindSpore 1.7.0 y CUDA 10.1

CPU o GPU

mindspore1.7.0-py3.7-ubuntu18.04

Desarrollo y entrenamiento de algoritmos generales con CPU, preconfigurados con el motor de IA MindSpore 1.7.0

CPU

pytorch1.10-cuda10.2-cudnn7-ubuntu18.04

Desarrollo y entrenamiento de algoritmos generales basados en CPU o GPU, preconfigurados con el motor de IA PyTorch 1.10 y CUDA 10.2

CPU o GPU

tensorflow2.1-cuda10.1-cudnn7-ubuntu18.04

Imagen pública impulsada por CPU o GPU para el desarrollo y entrenamiento de algoritmos generales, con el motor de IA integrado TensorFlow 2.1

CPU o GPU

conda3-ubuntu18.04

Limpiar imagen base personalizada solo incluye Conda

CPU

pytorch1.4-cuda10.1-cudnn7-ubuntu18.04

Imagen pública impulsada por CPU o GPU para desarrollo y entrenamiento de algoritmos generales, con el motor de IA integrado PyTorch 1.4

CPU o GPU

tensorflow1.13-cuda10.0-cudnn7-ubuntu18.04

Imagen pública impulsada por GPU para el desarrollo y el entrenamiento de algoritmos generales, con el motor de IA integrado TensorFlow 1.13.1

GPU

conda3-cuda10.2-cudnn7-ubuntu18.04

La imagen base personalizada limpia incluye CUDA 10.2, Conda

CPU

spark2.4.5-ubuntu18.04

Desarrollo y entrenamiento de algoritmos con CPU, preconfigurados con PySpark 2.4.5 y se pueden conectar a clústeres de Spark preconfigurados, incluidos MRS y DLI

CPU

No

mindspore1.2.0-cuda10.1-cudnn7-ubuntu18.04

Imagen pública impulsada por GPU para desarrollo y entrenamiento de algoritmos, con motor de IA integrado MindSpore-GPU

GPU

mindspore1.2.0-openmpi2.1.1-ubuntu18.04

Imagen pública impulsada por CPU para desarrollo y entrenamiento de algoritmos, con motor de IA integrado MindSpore-CPU

CPU

Tabla 2 Imágenes soportadas por el notebook de la versión antigua

Entorno de tiempo de ejecución

Motor y versión de IA incorporados

Chip soportado

Multi-Engine 1.0 (Python3, Recomendado)

MXNet 1.2.1

CPU o GPU

PySpark 2.3.2

CPU

PyTorch 1.0.0

GPU

TensorFlow 1.13.1

CPU o GPU

TensorFlow 1.8

CPU o GPU

XGBoost-Sklearn

CPU

Multi-Engine 1.0 (Python2)

Caffe 1.0.0

CPU o GPU

MXNet 1.2.1

CPU o GPU

PySpark 2.3.2

CPU

PyTorch 1.0.0

GPU

TensorFlow 1.13.1

CPU o GPU

TensorFlow 1.8

CPU o GPU

XGBoost-Sklearn

CPU

Multi-Engine 2.0 (Python3)

PyTorch 1.4.0

GPU

R-3.6.1

CPU o GPU

TensorFlow 2.1.0

CPU o GPU

Trabajos de entrenamiento

En la siguiente tabla se enumeran los motores de IA.

Los motores de entrenamiento incorporados en la nueva versión se nombran en el siguiente formato:

<Training engine name_version>-[cpu | <cuda_version | cann_version >]-<py_version>-<OS name_version>-< x86_64 | aarch64>
Tabla 3 Motores de IA apoyados por trabajos de entrenamiento de la nueva versión

Entorno de tiempo de ejecución

Chip soportado

Arquitectura del sistema

Versión del sistema

Motor de AI y su versión

Versión compatible con CUDA o Ascend

TensorFlow

CPU o GPU

x86_64

Ubuntu 18.04

tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64

CUDA 10.1

PyTorch

CPU o GPU

x86_64

Ubuntu 18.04

pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64

CUDA 10.2

MPI

GPU

x86_64

Ubuntu 18.04

mindspore_1.3.0-cuda_10.1-py_3.7-ubuntu_1804-x86_64

CUDA 10.1

Horovod

GPU

x86_64

Ubuntu 18.04

horovod_0.20.0-tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64

CUDA 10.1

horovod_0.22.1-pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64

CUDA 10.2

Tabla 4 Motores de IA soportados por trabajos de entrenamiento de la versión anterior

Entorno de tiempo de ejecución

Chip soportado

Arquitectura del sistema

Versión del sistema

Motor de AI y su versión

Versión compatible con CUDA o Ascend

TensorFlow

CPU o GPU

x86_64

Ubuntu 16.04

TF-1.8.0-python2.7

-

TF-1.8.0-python3.6

-

TF-1.13.1-python2.7

-

TF-1.13.1-python3.6

-

TF-2.1.0-python3.6

-

MXNet

CPU o GPU

x86_64

Ubuntu 16.04

MXNet-1.2.1-python2.7

-

MXNet-1.2.1-python3.6

-

Spark_MLlib

CPU

x86_64

Ubuntu 16.04

Spark-2.3.2-python3.6

-

Spark-2.3.2-python2.7

-

Ray

CPU o GPU

x86_64

Ubuntu 16.04

RAY-0.7.4-python3.6

-

PyTorch

CPU o GPU

x86_64

Ubuntu 16.04

PyTorch-1.0.0-python2.7

-

PyTorch-1.0.0-python3.6

-

PyTorch-1.3.0-python2.7

-

PyTorch-1.3.0-python3.6

-

PyTorch-1.4.0-python3.6

-

Caffe

CPU o GPU

x86_64

Ubuntu 16.04

Caffe-1.0.0-python2.7

CUDA 8.0

MindSpore-GPU

GPU

x86_64

Ubuntu 18.04

MindSpore-1.1.0-python3.7

-

MindSpore-1.2.0-python3.7

-

Motores de IA compatibles para la inferencia de ModelArts

Si importa un modelo desde una plantilla u OBS para crear una aplicación de IA, puede seleccionar los motores y las versiones de IA en la siguiente tabla.

NOTA:
  • Los entornos de tiempo de ejecución marcados con recommended provienen de imágenes unificadas, que se utilizarán como imágenes de inferencia base convencionales. Las imágenes unificadas proporcionan paquetes de instalación completos. Para más detalles, consulte Imágenes de base de inferencia disponibles.
  • Las imágenes de la versión anterior serán descontinuadas. Utilice imágenes unificadas.
  • Una imagen de tiempo de ejecución unificada se denomina con el siguiente formato: <AI engine and version> - <Hardware and version: CPU, CUDA, or CANN> - <Python version> - <SO version> - <CPU architecture>
Tabla 5 Motores de IA compatibles y su tiempo de ejecución

Motor

Entorno de ejecución

Nota

TensorFlow

python3.6

python2.7

tf1.13-python2.7-gpu

tf1.13-python2.7-cpu

tf1.13-python3.6-gpu

tf1.13-python3.6-cpu

tf1.13-python3.7-cpu

tf1.13-python3.7-gpu

tf2.1-python3.7

tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64 (recommended)

  • TensorFlow 1.8.0 se utiliza en python2.7 y python3.6.
  • python3.6, python2.7, y tf2.1-python3.7 indican que el modelo puede ejecutarse tanto en CPU como en GPU. Para otros valores de tiempo de ejecución, si el sufijo contiene cpu o gpu, el modelo solo puede ejecutarse en CPU o GPU.
  • El tiempo de ejecución predeterminado es python2.7.

MXNet

python3.7

python3.6

python2.7

  • MXNet 1.2.1 se utiliza en python2.7, python3.6 y python3.7.
  • python2.7, python3.6 y python3.7 indican que el modelo puede ejecutarse tanto en CPU como en GPU.
  • El tiempo de ejecución predeterminado es python2.7.

Caffe

python2.7

python3.6

python3.7

python2.7-gpu

python3.6-gpu

python3.7-gpu

python2.7-cpu

python3.6-cpu

python3.7-cpu

  • Caffe 1.0.0 se utiliza en python2.7, python3.6, python3.7, python2.7-gpu, python3.6-gpu, python3.7-gpu, python2.7-cpu, python3.6-cpu y python3.7-cpu.
  • python 2.7, python3.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU. Para otros valores de tiempo de ejecución, si el sufijo contiene cpu o gpu, el modelo solo puede ejecutarse en CPU o GPU. Utilice el tiempo de ejecución de python2.7-gpu, python3.6-gpu, python3.7-gpu, python2.7-cpu, python3.6-cpu o python3.7-cpu.
  • El tiempo de ejecución predeterminado es python2.7.

Spark_MLlib

python2.7

python3.6

  • Spark_MLlib 2.3.2 se utiliza en python2.7 y python3.6.
  • El tiempo de ejecución predeterminado es python2.7.
  • python2.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU.

Scikit_Learn

python2.7

python3.6

  • Scikit_Learn 0.18.1 se utiliza en python2.7 y python3.6.
  • El tiempo de ejecución predeterminado es python2.7.
  • python2.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU.

XGBoost

python2.7

python3.6

  • XGBoost 0.80 se utiliza en python2.7 y python3.6.
  • El tiempo de ejecución predeterminado es python2.7.
  • python2.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU.

PyTorch

python2.7

python3.6

python3.7

pytorch1.4-python3.7

pytorch1.5-python3.7

pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64 (recomendado)

  • PyTorch 1.0 se utiliza en python2.7, python3.6 y python3.7.
  • python2.7, python3.6, python3.7, pytorch1.4-python3.7 y pytorch1.5-python3.7 indican que el modelo puede ejecutarse tanto en CPU como en GPU.
  • El tiempo de ejecución predeterminado es python2.7.

MindSpore

aarch64

mindspore_1.7.0-cpu-py_3.7-ubuntu_18.04-x86_64 (recommended)

AArch64 solo puede ejecutarse en chips D310.

Utilizamos cookies para mejorar nuestro sitio y tu experiencia. Al continuar navegando en nuestro sitio, tú aceptas nuestra política de cookies. Descubre más

Comentarios

Comentarios

Comentarios

0/500

Seleccionar contenido

Enviar el contenido seleccionado con los comentarios