Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Centro de ayuda> ModelArts> Implementación de inferencia> Gestión de aplicaciones de IA> Introducción a la gestión de aplicaciones de IA
Actualización más reciente 2024-06-25 GMT+08:00

Introducción a la gestión de aplicaciones de IA

El desarrollo y la optimización de la IA requieren iteraciones y depuración frecuentes. Los cambios en los conjuntos de datos, el código de entrenamiento o los parámetros afectan a la calidad de los modelos. Si los metadatos del proceso de desarrollo no se pueden gestionar de forma centralizada, es posible que el modelo óptimo no se reproduzca.

La gestión de aplicaciones de IA de ModelArts le permite importar todos los metamodelos generados durante el entrenamiento y gestionar de forma centralizada todas las aplicaciones de IA iteradas y depuradas.You can also trace back your models with traceback diagrams of datasets, training, and models.

Restricciones de uso

  • En un proyecto ExeML, después de implementar un modelo, el modelo se carga automáticamente a la lista de gestión de aplicaciones de IA. Sin embargo, las aplicaciones de IA generadas por ExeML no se pueden descargar y solo se pueden usar para la implementación y la implementación.
  • Funciones como la creación de aplicaciones de IA, la gestión de versiones de aplicaciones de IA y la conversión de modelos están disponibles de forma gratuita para todos los usuarios.

Escenarios para crear aplicaciones de IA

  • Importar desde modelos entrenados: puede crear un trabajo de entrenamiento en el ModelArts y completar el entrenamiento de modelos. Después de obtener un modelo satisfactorio, cree una aplicación de IA para su implementación.
  • Importación de una plantilla: Debido a que las configuraciones de los plantillas con las mismas funciones son similares, el ModelArts integra las configuraciones de dichos plantillas en una plantilla común. Al utilizar esta plantilla, puede importar fácilmente y rápidamente plantillas para crear aplicaciones de IA sin compilar el archivo de configuración config.json.
  • Importación desde una imagen de contenedor: para los motores de IA que no son compatibles con ModelArts puede importar los modelos que compila a ModelArts mediante imágenes personalizadas y crear aplicaciones de IA para su implementación.
  • Importación desde OBS: Si utiliza un marco común para desarrollar y entrenar un modelo localmente, puede cargar el modelo en un bucket OBS basado en las especificaciones del paquete del modelo, importar el modelo de OBS a ModelArts y crear una aplicación de IA para la implementación del servicio.

Funciones de la gestión de aplicaciones de IA

Tabla 1 Funciones de la gestión de aplicaciones de IA

Función soportada

Descripción

Creación de una aplicación de IA

Importar los modelos capacitados a ModelArts y crear las aplicaciones de IA para una gestión centralizada. A continuación proporcionarse la guía de operación para cada método de importación de modelos.

Gestión de aplicaciones de IA

Para facilitar el seguimiento y el ajuste del modelo, el ModelArts proporciona la función de gestión de versiones de la aplicación de IA. Puede gestionar aplicaciones de IA basadas en versiones.

Motores de IA compatibles para la inferencia de ModelArts

Si importa un plantilla desde una plantilla u OBS para crear una aplicación de IA, se admiten los siguientes motores y versiones de IA.

  • Los entornos de tiempo de ejecución marcados con recommended son imágenes de tiempo de ejecución unificadas, que se utilizarán como imágenes de inferencia base convencionales. Los paquetes de instalación de imágenes unificadas son más ricos. Para obtener más información, consulte Imágenes de inferencia de base.
  • Las imágenes de la versión anterior serán descontinuadas. Utilice imágenes unificadas.
  • Nombre una imagen unificada en tiempo de ejecución: <AI engine name and version> - <Hardware and version: CPU, CUDA, or CANN> - <Python version> - <OS version> - <CPU architecture>
Tabla 2 Motores de IA compatibles y su tiempo de ejecución

Motor

Tiempo de ejecución

Nota

TensorFlow

python3.6

python2.7

tf1.13-python2.7-gpu

tf1.13-python2.7-cpu

tf1.13-python3.6-gpu

tf1.13-python3.6-cpu

tf1.13-python3.7-cpu

tf1.13-python3.7-gpu

tf2.1-python3.7

tensorflow_2.1.0-cuda_10.1-py_3.7-ubuntu_18.04-x86_64 (recommended)

  • TensorFlow 1.8.0 se utiliza en python2.7 y python3.6.
  • python3.6, python2.7, y tf2.1-python3.7 indican que el modelo puede ejecutarse tanto en CPU como en GPU. Para otros valores de tiempo de ejecución, si el sufijo contiene cpu o gpu, el modelo solo puede ejecutarse en CPU o GPU.
  • El tiempo de ejecución predeterminado es python2.7.

MXNet

python3.7

python3.6

python2.7

  • MXNet 1.2.1 se utiliza en python2.7, python3.6 y python3.7.
  • python2.7, python3.6 y python3.7 indican que el modelo puede ejecutarse tanto en CPU como en GPU.
  • El tiempo de ejecución predeterminado es python2.7.

Caffe

python2.7

python3.6

python3.7

python2.7-gpu

python3.6-gpu

python3.7-gpu

python2.7-cpu

python3.6-cpu

python3.7-cpu

  • Caffe 1.0.0 se utiliza en python2.7, python3.6, python3.7, python2.7-gpu, python3.6-gpu, python3.7-gpu, python2.7-cpu, python3.6-cpu y python3.7-cpu.
  • python 2.7, python3.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU. Para otros valores de tiempo de ejecución, si el sufijo contiene cpu o gpu, el modelo solo puede ejecutarse en CPU o GPU. Utilice el tiempo de ejecución de python2.7-gpu, python3.6-gpu, python3.7-gpu, python2.7-cpu, python3.6-cpu, y python3.7-cpu.
  • El tiempo de ejecución predeterminado es python2.7.

Spark_MLlib

python2.7

python3.6

  • Spark_MLlib 2.3.2 se utiliza en python2.7 y python3.6.
  • El tiempo de ejecución predeterminado es python2.7.
  • python2.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU.

Scikit_Learn

python2.7

python3.6

  • Scikit_Learn 0.18.1 se utiliza en python2.7 y python3.6.
  • El tiempo de ejecución predeterminado es python2.7.
  • python2.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU.

XGBoost

python2.7

python3.6

  • XGBoost 0.80 se utiliza en python2.7 y python3.6.
  • El tiempo de ejecución predeterminado es python2.7.
  • python2.7 y python3.6 solo se pueden usar para ejecutar modelos en CPU.

PyTorch

python2.7

python3.6

python3.7

pytorch1.4-python3.7

pytorch1.5-python3.7

pytorch_1.8.0-cuda_10.2-py_3.7-ubuntu_18.04-x86_64 (recommended)

  • PyTorch 1.0 se utiliza en python2.7, python3.6 y python3.7.
  • python2.7, python3.6, python3.7, pytorch1.4-python3.7 y pytorch1.5-python3.7 indican que el modelo puede ejecutarse tanto en CPU como en GPU.
  • El tiempo de ejecución predeterminado es python2.7.

MindSpore

aarch64

mindspore_1.7.0-cpu-py_3.7-ubuntu_18.04-x86_64 (recommended)

AArch64 solo puede ejecutarse en chips D310.