ModelArts
ModelArts

    Todos los resultados de "" dentro de este producto

      Todos los resultados de "" dentro de este producto

      • Descripción general del servicio
        • Infografías
        • ¿Qué es ModelArts?
        • Funciones
        • Conocimiento básico
          • Introducción al ciclo de vida del desarrollo de la IA
          • Conceptos básicos del desarrollo de IA
          • Conceptos comunes de ModelArts
          • Gestión de datos
          • Introducción a las herramientas de desarrollo
        • Servicios relacionados
        • ¿Cómo accedo a ModelArts?
        • Facturación
        • Gestión de permisos
        • Cuotas
      • Preparaciones
        • Registro de una cuenta de Huawei Cloud
        • Configuración de la autorización de acceso (configuración global)
        • Creación de un bucket de OBS
        • (Opcional) Compra de un paquete
      • DevEnviron
        • Introducción a DevEnviron
        • Escenarios de aplicación
        • Gestión de instancias de notebook
          • Creación de una instancia de notebook
          • Acceso a una instancia de notebook
          • Búsqueda, inicio, detención o supresión de instancias de notebook
          • Cambio de una imagen de instancia de notebook
          • Cambio de la variante de una instancia de notebook
          • Selección de almacenamiento en DevEnviron
          • Montaje dinámico de un sistema de archivos paralelo de OBS
          • Ampliación dinámica de la capacidad del disco de EVS
          • Modificación de la configuración de SSH para una instancia de notebook
          • Consulta de las instancias de notebook de todos los usuarios de IAM con una cuenta de tenant
          • Consulta de eventos de notebook
          • Informes de alarmas del directorio de caché de notebook
        • JupyterLab
          • Proceso de operación de JupyterLab
          • Descripción y operaciones comunes de JupyterLab
          • Complemento de parametrización de código
          • Uso del SDK de ModelArts
          • Uso de complemento de Git
          • Entrenamiento de modelo visualizado
            • Introducción a la visualización de trabajos de entrenamiento
            • Trabajos de visualización de MindInsight
            • Trabajos de visualización de TensorBoard
          • Carga y descarga de datos en notebook
            • Carga de archivos a JupyterLab
              • Escenarios
              • Carga de archivos desde una ruta local a JupyterLab
                • Carga de escenarios y de entradas
                • Carga de un archivo local menos de 100 MB a JupyterLab
                • Carga de un archivo local con un tamaño que varía de 100 MB a 5 GB a JupyterLab
                • Carga de un archivo local más de 5 GB a JupyterLab
              • Clonación de un repositorio de código abierto de GitHub
              • Carga de archivos de OBS a JupyterLab
              • Carga de archivos remotos a JupyterLab
            • Descarga de un archivo de JupyterLab a una ruta local
        • IDE local
          • Proceso de operación en un IDE local
          • IDE local (PyCharm)
            • Conexión a una instancia de notebook con PyCharm Toolkit
              • PyCharm Toolkit
              • Descarga e instalación de PyCharm Toolkit
              • Conexión a una instancia de notebook con PyCharm Toolkit
            • Conexión manual a una instancia de notebook con PyCharm
            • Envío de un trabajo de entrenamiento con PyCharm Toolkit
              • Envío de un trabajo de entrenamiento (Nueva versión)
              • Detención de un trabajo de entrenamiento
              • Consulta de logs de entrenamiento
            • Carga de datos en una instancia de notebook con PyCharm
          • IDE local (VS Code)
            • Conexión a una instancia de notebook por VS Code
            • Instalación de VS Code
            • Conexión a una instancia de notebook a través del VS Code Toolkit
            • Conexión manual a una instancia de notebook por VS Code
            • Depuración remota en VS Code
            • Carga y descarga de archivos en VS Code
          • IDE local (acceso con SSH)
        • Referencia de comandos de ModelArts CLI
          • Descripción de ModelArts CLI
          • (Opcional) Instalación de ma-cli localmente
          • Completado automático para comandos de ma-cli
          • Autenticación de ma-cli
          • Comando de creación de ma-cli Image
            • Comando de creación de ma-cli Image
            • Obtención de una plantilla de creación de imágenes
            • Carga de una plantilla de creación de imágenes
            • Obtención de imágenes de ModelArts registradas
            • Creación de una imagen en notebook de ModelArts
            • Obtención de cachés de creación de imágenes en el notebook de ModelArts
            • Borrado de cachés de creación de imágenes en el notebook de ModelArts
            • Registro de imágenes de SWR con la gestión de imágenes de ModelArts
            • Cancelación del registro de una imagen en la gestión de imágenes de ModelArts
            • Depuración de una imagen de SWR en un ECS
          • Uso del comando ma-cli ma-job para enviar un trabajo de entrenamiento de ModelArts
            • Descripción del comando ma-cli ma-job
            • Obtención de trabajos de entrenamiento de ModelArts
            • Envío de un trabajo de entrenamiento de ModelArts
            • Obtención de logs de trabajos de entrenamiento de ModelArts
            • Obtención de eventos de trabajo de entrenamiento de ModelArts
            • Obtención de motores de IA de ModelArts para entrenamiento
            • Obtención de especificaciones de recursos de ModelArts para entrenamiento
            • Detención de un trabajo de entrenamiento de ModelArts
          • Uso del comando ma-cli dli-job para enviar un trabajo de DLI Spark
            • Descripción
            • Consulta de trabajos de DLI Spark
            • Envío de un trabajo de DLI Spark
            • Consulta de logs de ejecución de DLI Spark
            • Consulta de colas de DLI
            • Obtención de recursos del grupo de DLI
            • Carga de archivos locales o archivos de OBS en un grupo de DLI
            • Detención de un trabajo de DLI Spark
          • Uso de ma-cli para copiar datos de OBS
      • Implementación de inferencia
        • Introducción a la Inferencia
        • Gestión de aplicaciones de IA
          • Introducción a la gestión de aplicaciones de IA
          • Creación de una aplicación de IA
            • Importación de un metamodelo desde un trabajo de entrenamiento
            • Importación de un metamodelo desde una plantilla
            • Importación de un metamodelo desde OBS
            • Importación de un metamodelo desde una imagen de contenedor
          • Consulta de la lista de aplicaciones de IA
          • Consulta de detalles sobre una aplicación de IA
          • Gestión de versiones de aplicaciones de IA
          • Consulta de eventos de una aplicación de IA
        • Despliegue de una aplicación de IA como servicio
          • Despliegue de aplicaciones de IA como servicios en tiempo real
            • Despliegue como servicio en tiempo real
            • Consulta de detalles del servicio
            • Prueba del servicio desplegado
            • Acceso a los servicios en tiempo real
              • Acceso a un servicio en tiempo real
              • Modo de autenticación
                • Acceso autenticado mediante un token
                • Acceso autenticado con una AK/SK
                • Acceso autenticado mediante una aplicación
              • Modo de acceso
                • Acceso a un servicio en tiempo real (canal de red pública)
                • Acceso a un servicio en tiempo real (canal de VPC de alta velocidad)
              • Acceso a un servicio en tiempo real con WebSocket
              • Server-Sent Events
            • Integración de un servicio en tiempo real
            • Cloud Shell
          • Despliegue de aplicaciones de IA como servicios por lotes
            • Despliegue como servicio por lotes
            • Consulta de detalles de un servicio por lotes
            • Consulta del resultado de la predicción del servicio por lotes
          • Actualización de un servicio
          • Inicio, parada, supresión o reinicio de un servicio
          • Consulta de eventos de servicio
        • Especificaciones de inferencia
          • Especificaciones del paquete de modelo
            • Introducción a las especificaciones del paquete modelo
            • Especificaciones para editar un archivo de configuración de modelo
            • Especificaciones para escribir el código de inferencia de modelo
          • Plantillas de modelo
            • Introducción a las plantillas de modelo
            • Plantillas
              • Plantilla de clasificación de imágenes basada en TensorFlow
              • Plantilla general de TensorFlow-py27
              • Plantilla general de TensorFlow-py36
              • Plantilla general MXNet-py27
              • Plantilla general MXNet-py36
              • Plantilla general PyTorch-py27
              • Plantilla general PyTorch-py36
              • Plantilla general Caffe-CPU-py27
              • Plantilla general Caffe-GPU-py27
              • Plantilla general Caffe-CPU-py36
              • Plantilla general Caffe-GPU-py36
              • Plantilla Arm-Ascend
            • Modos de entrada y salida
              • Modo de detección de objetos incorporado
              • Modo de procesamiento de imágenes incorporado
              • Modo de análisis predictivo incorporado
              • Modo indefinido
          • Ejemplos de scripts personalizados
            • TensorFlow
            • TensorFlow 2.1
            • PyTorch
            • Caffe
            • XGBoost
            • PySpark
            • Aprendizaje de Scikit
        • ModelArts monitoreo en Cloud Eye
          • Métricas de ModelArts
          • Configuración de reglas de alarma
          • Consulta de métricas de monitoreo
      • Contenedores de Docker con ModelArts
        • Gestión de imágenes
        • Uso de una imagen preestablecida
          • Imágenes preestablecidas en notebook
            • Imágenes de base de notebook
            • Lista de imágenes base de notebook
            • Imagen de base de notebook con PyTorch (x86)
            • Imagen de base de notebook con Tensorflow (x86)
            • Imagen de base de notebook con MindSpore (x86)
            • Imagen de base de notebook con imagen dedicada personalizada (x86)
          • Imagen de base de entrenamiento
            • Imágenes de base de entrenamiento disponibles
            • Entrenamiento de imagen de base (PyTorch)
            • Entrenamiento de imagen de base (TensorFlow)
            • Entrenamiento de imagen de base (Horovod)
            • Entrenamiento de imagen de base (MPI)
            • Inicio del entrenamiento con una imagen preestablecida
              • PyTorch
              • TensorFlow
              • Horovod/MPI/MindSpore-GPU
          • Imágenes de base de inferencia
            • Imágenes de base de inferencia disponibles
            • Imágenes de base de inferencia con TensorFlow (CPU/GPU)
            • Imágenes base de inferencia con PyTorch (CPU/GPU)
            • Imágenes base de inferencia con MindSpore (CPU/GPU)
        • Uso de imágenes personalizadas en instancias de notebook
          • Registro de una imagen en ModelArts
          • Creación de una imagen personalizada
          • Guardar una instancia de Notebook como una imagen personalizada
            • Guardar una imagen de entorno de notebook
            • Uso de una imagen personalizada para crear una instancia de notebook
          • Creación y uso de una imagen personalizada en notebook
            • Escenarios de aplicación y proceso
            • Paso 1 Crear una imagen personalizada
            • Paso 2 Registrar una nueva imagen
            • Paso 3 Usar una nueva imagen para crear un entorno de desarrollo
          • Creación de una imagen personalizada en un ECS y su uso en notebook
            • Escenarios de aplicación y proceso
            • Paso 1 Preparar un servidor de Docker y configurar un entorno
            • Paso 2 Crear una imagen personalizada
            • Paso 3 Registrar una nueva imagen
            • Paso 5 Crear e iniciar un entorno de desarrollo
        • Uso de una imagen personalizada para entrenar modelos (entrenamiento de modelos)
          • Descripción general
          • Ejemplo: creación de una imagen personalizada para entrenamiento
            • Ejemplo: creación de una imagen personalizada para el entrenamiento (PyTorch + CPU/GPU)
            • Ejemplo: creación de una imagen personalizada para entrenamiento (MPI + CPU/GPU)
            • Ejemplo: creación de una imagen personalizada para entrenamiento (Horovod-PyTorch y GPU)
            • Ejemplo: creación de una imagen personalizada para entrenamiento (MindSpore y GPU)
            • Ejemplo: creación de una imagen personalizada para entrenamiento (TensorFlow y GPU)
          • Preparación de una imagen de entrenamiento
            • Especificaciones a las Imágenes personalizadas para trabajos de entrenamiento
            • Migración de una imagen al entrenamiento de ModelArts
            • Uso de una imagen de base para crear una imagen de entrenamiento
            • Instalación de MLNX_OFED en una imagen de contenedor
          • Creación de un algoritmo mediante una imagen personalizada
          • Uso de una imagen personalizada para crear un trabajo de entrenamiento basado en CPU o GPU
          • Proceso de solución de problemas
        • Uso de una imagen personalizada para crear aplicaciones de IA para el despliegue de inferencia
          • Especificaciones de imágenes personalizadas para crear aplicaciones de IA
          • Creación de una imagen personalizada y su uso para crear una aplicación de IA
        • Preguntas frecuentes
          • ¿Cómo puedo iniciar sesión en SWR y cargar imágenes en él?
          • ¿Cómo configuro variables de entorno para una imagen?
          • ¿Cómo uso Docker para iniciar una imagen guardada con una instancia de notebook?
          • ¿Cómo configuro un origen de Conda en un entorno de desarrollo de notebook?
          • ¿Cuáles son las versiones de software admitidas para una imagen personalizada?
        • Cambios de modificaciones
      • Referencia de la API
        • Antes de comenzar
          • Descripción general
          • Invocación de la API
          • Endpoint
          • Restricciones
          • Conceptos básicos.
        • Llamar a las API
          • Making an API Request
          • Autenticación
          • Respuesta
        • Gestión de datos
          • API de gestión de datos
          • Gestión de conjuntos de datos
            • Consulta de la lista de conjuntos de datos
            • Creación de un conjunto de datos
            • Consulta de detalles acerca de un conjunto de datos
            • Modificación de un conjunto de datos
            • Eliminación de un conjunto de datos
            • Consulta de estadísticas de conjunto de datos
            • Consulta de los datos de supervisión de un conjunto de datos
          • Gestión de versiones de conjuntos de datos
            • Consulta de la lista de versiones del conjunto de datos
            • Creación de una versión de etiquetado de conjunto de datos
            • Consulta de detalles acerca de una versión de conjunto de datos
            • Eliminación de una versión de etiquetado de conjunto de datos
          • Gestión de muestras
            • Consulta de la lista de muestra
            • Adición de muestras en lotes
            • Eliminación de muestras en lotes
            • Consulta de detalles acerca de una muestra
            • Obtención de la condición de búsqueda de muestra
            • Consulta de la lista de muestra de una tarea de etiquetado de equipo por página
            • Consulta de detalles acerca de ejemplos de etiquetado de equipos
          • Gestión de etiquetas
            • Consulta de la lista de etiquetas de conjunto de datos
            • Creación de una etiqueta de conjunto de datos
            • Modificación de etiquetas en lotes
            • Eliminación de etiquetas en lotes
            • Actualización de una etiqueta por nombres de etiqueta
            • Eliminación de una etiqueta y los archivos que sólo contienen la etiqueta
          • Etiquetado manual
            • Actualización de etiquetas de muestra en lotes
          • Gestión de tareas de etiquetado
            • Consulta de la lista de tareas de etiquetado de equipos de un conjunto de datos
            • Creación de una tarea de etiquetado de equipo
            • Consulta de detalles acerca de una tarea de etiquetado de equipo
            • Inicio de una tarea de etiquetado de equipo
            • Actualización de una tarea de etiquetado de equipo
            • Eliminación de una tarea de etiquetado de equipo
            • Creación de una Tarea de Aceptación de Etiquetado de Equipo
            • Consulta del Informe de una Tarea de Aceptación de Etiquetado de Equipo
            • Actualización del estado de una tarea de aceptación de etiquetado de equipo
            • Consulta de detalles Acerca de las estadísticas de tareas de etiquetado de equipos
            • Consulta de detalles acerca del progreso de un miembro de la tarea de etiquetado de equipo
            • Consulta de la lista de tareas de etiquetado de equipos por un miembro del equipo
          • Gestión de procesos de etiquetado de equipos
            • Envío de Ejemplos de Comentarios de Revisión de una Tarea de Aceptación
            • Revisión de los resultados del etiquetado del equipo
            • Actualización de etiquetas de muestras de etiquetado de equipos en lotes
          • Gestión de equipos de etiquetado
            • Consulta de la lista de equipos de etiquetado
            • Creación de un equipo de etiquetado
            • Consulta de detalles acerca de un equipo de etiquetado
            • Actualización de un equipo de etiquetado
            • Eliminación de un equipo de etiquetado
          • Labeling Team Member Management
            • Envío de un correo electrónico a un miembro del equipo de etiquetado
            • Consulta de la lista de todos los miembros del equipo de etiquetado
            • Consulta de la lista de miembros del equipo de etiquetado
            • Creación de un miembro del equipo de etiquetado
            • Eliminación de etiquetado de miembros del equipo en lotes
            • Consulta de detalles acerca de miembros de equipo de etiquetado
            • Actualización de un miembro del equipo de etiquetado
            • Eliminación de un miembro del equipo de etiquetado
          • Tarea de importación de datos
            • Consulta de la lista de tareas de importación de conjunto de datos
            • Creación de una tarea de importación
            • Consulta de detalles acerca de una tarea de importación de conjunto de datos
          • Tarea de exportación de datos
            • Consulta de la lista de tareas de exportación de conjunto de datos
            • Creación de una Tarea de Exportación de Conjunto de Datos
            • Consulta del estado de una tarea de exportación de conjunto de datos
          • Tarea de sincronización de datos
            • Sincronización de un conjunto de datos
            • Consulta del estado de una tarea de sincronización de conjunto de datos
          • Tarea inteligente
            • Consulta de lista de ejemplo de etiquetado automático
            • Consulta de detalles acerca de un ejemplo de etiquetado automático
            • Consulta de la lista de tareas inteligentes por página
            • Inicio de tareas inteligentes
            • Obtención de información sobre tareas inteligentes
            • Detener una tarea inteligente
          • Tarea de procesamiento
            • Consulta de la lista de tareas de procesamiento
            • Creación de una tarea de procesamiento
            • Consulta de detalles acerca de una tarea de procesamiento
            • Actualización de una tarea de procesamiento
            • Eliminación de una tarea de procesamiento
        • DevEnviron (Recomendado)
          • Gestión de instancias de DevEnviron
            • Consulta de imágenes admitidas
            • Consulta de Instancias de Notebook
            • Creación de una instancia de notebook
            • Consulta de detalles de una instancia de notebook
            • Actualización de una instancia de Notebook
            • Supresión de una instancia de Notebook
            • Consulta de variantes disponibles para una instancia de notebook
            • Consulta de la duración disponible de una instancia de Notebook en ejecución
            • Prolongación de una instancia de Notebook
            • Inicio de una instancia de Notebook
            • Detención de una instancia de Notebook
          • Montaje de almacenamiento OBS
            • Obtención de las instancias de Notebook con almacenamiento OBS montado
            • Montaje de almacenamiento OBS
            • Obtención de detalles acerca de una instancia de notebook con almacenamiento de OBS montado
            • Desmontaje de almacenamiento OBS de una Instancia de Notebook
        • Gestión de la formación (recomendada)
          • Gestión de algoritmos
            • Creación de un algoritmo
            • Consulta de la lista de algoritmos
            • Consulta de detalles del algoritmo
            • Modificación de un algoritmo
            • Eliminación de un algoritmo
          • Gestión de trabajos de entrenamiento
            • Creación de un trabajo de entrenamiento
            • Consulta de los detalles de un trabajo de formación
            • Modificación de la descripción de un trabajo de formación
            • Supresión de un trabajo de entrenamiento
            • Finalización de un trabajo de entrenamiento
            • Consulta de los logs de una tarea especificada en un trabajo de entrenamiento determinado (vista previa)
            • Consulta de los logs de una etiqueta especificada en un trabajo de entrenamiento determinado (URL OBS)
            • Consulta de las métricas en ejecución de una tarea especificada en un trabajo de entrenamiento
            • Consulta de una lista de trabajos de formación
          • Especificaciones de recursos y motores
            • Consultar la lista pública de variantes respaldada por un trabajo de entrenamiento
            • Consulta de la lista de motores de IA admitidos por un trabajo de formación
        • Gestión de modelos
          • Importación de un modelo
          • Consulta de una lista de modelos
          • Consulta de los detalles sobre un modelo
          • Eliminación de un modelo
        • Gestión de servicios
          • Implementación de un modelo como servicio
          • Consulta de una lista de servicios
          • Consulta de los detalles sobre un servicio
          • Actualización de configuraciones de servicio
          • Consulta de información de supervisión del servicio
          • Consulta de registros de actualización del servicio
          • Consulta de registros de eventos de servicio
          • Eliminación de un servicio
          • Consulta de especificaciones de implementación de servicios admitidos
          • Consulta de grupos de recursos dedicados
        • Gestión de autorizaciones
          • Configuración de Autorización
          • Consulta de una lista de autorización
          • Eliminación de Autorización
          • Creación de una delegación de ModelArts
        • Casos de uso
          • Gestión de la autorización de ModelArts
        • Políticas de permisos y acciones admitidas
          • Introducción
          • Permisos de DevEnviron
          • Permisos de trabajo de entrenamiento
          • Permisos de gestión de modelos
          • Permisos de gestión de servicios
        • Parámetros comunes
          • Status Code
          • Códigos de error
          • Obtención de un ID y un nombre de proyecto
          • Obtención de un nombre de cuenta y su ID
          • Obtención de un nombre de usuario e ID
        • Historial de revisiones
      • Preguntas frecuentes
        • Cuestiones generales
          1. ¿Qué es ModelArts?
          2. ¿Cuáles son las relaciones entre ModelArts y otros servicios?
          3. ¿Cuáles son las diferencias entre ModelArts y DLS?
          4. ¿Cómo puedo comprar o activar ModelArts?
          5. ¿Qué chips de Ascend son compatibles?
          6. ¿Cómo obtengo una clave de acceso?
          7. ¿Cómo subo datos a OBS?
          8. What Do I Do If the System Displays a Message Indicating that the AK/SK Pair Is Unavailable?
          9. ¿Qué debo hacer si se muestra un mensaje que indica permisos insuficientes cuando utilizo ModelArts?
          10. ¿Cómo uso ModelArts para entrenar modelos basados en datos estructurados?
          11. ¿Qué son las Regiones y las AZ?
          12. ¿Cómo puedo comprobar si ModelArts y un bucket de OBS están en la misma región?
          13. ¿Cómo puedo ver todos los archivos almacenados en OBS de ModelArts?
          14. ¿Por qué se muestra el error: 403 Forbidden cuando realizo operaciones en OBS?
          15. ¿Dónde se almacenan los conjuntos de datos de ModelArts en un contenedor?
          16. ¿Qué marcos de IA admite ModelArts?
          17. ¿Cuáles son las funciones del entrenamiento y la inferencia de ModelArts?
          18. ¿Cómo puedo ver un ID de cuenta y un ID de usuario de IAM?
          19. ¿Puede la identificación asistida por IA de ModelArts identificar una etiqueta específica?
          20. ¿Cómo utiliza ModelArts las etiquetas para gestionar recursos por grupo?
          21. ¿Cómo puedo ver todas las métricas de supervisión de ModelArts?
          22. ¿Por qué el trabajo sigue en cola cuando los recursos son suficientes?
        • Facturación
          1. ¿Cómo puedo ver los trabajos de ModelArts que se están facturando?
          2. ¿Cómo puedo ver los detalles de consumo de ModelArts?
          3. ¿Se me cobrará por cargar conjuntos de datos a ModelArts?
          4. ¿Qué debo hacer para evitar la facturación innecesaria después de etiquetar conjuntos de datos y salir?
          5. ¿Cómo dejo de facturar un proyecto ExeML de ModelArts?
          6. ¿Cómo dejo de facturar si no uso ModelArts?
          7. ¿Cómo se facturan los trabajos de entrenamiento?
          8. ¿Por qué continúa la facturación después de que se eliminen todos los proyectos?
          9. ¿Necesito comprar recursos de pago por uso?
        • ExeML
          • Consultoría funcional
            1. ¿Qué es ExeML?
            2. ¿Qué son la clasificación de imágenes y la detección de objetos?
            3. ¿Cuáles son las diferencias entre ExeML y los algoritmos suscritos?
          • Preparación de datos
            1. ¿Cuáles son los requisitos para los datos de entrenamiento cuando crea un proyecto de análisis predictivo en ExeML?
            2. ¿Qué formatos de imágenes son compatibles con los proyectos de detección de objetos o clasificación de imágenes?
          • Creación de un proyecto
            1. ¿Hay un límite en el número de proyectos de ExeML que se pueden crear?
            2. ¿Por qué no hay datos disponibles en la ruta de entrada del conjunto de datos cuando creo un proyecto?
          • Etiquetado de datos
            1. ¿Puedo agregar varias etiquetas a una imagen para un proyecto de detección de objetos?
            2. Why Are Some Images Displayed as Unlabeled After I Upload Labeled Images in an Object Detection Job?
          • Training Models
            1. ¿Qué debo hacer cuando el botón Train no está disponible después de crear un proyecto de clasificación de imágenes y etiquetar las imágenes?
            2. ¿Cómo realizo entrenamiento incremental en un proyecto ExeML?
            3. ¿Puedo descargar un modelo entrenado usando ExeML?
            4. ¿Por qué falla el entrenamiento de ExeML?
            5. ¿Qué hago si se produjo un error de imagen durante el entrenamiento del modelo con ExeML?
            6. ¿Qué hago si se produjo el error de ModelArts.0010 cuando uso ExeML para iniciar el entrenamiento como usuario de IAM?
            7. ¿Cuál es la velocidad de entrenamiento de cada parámetro en la configuración de preferencias de entrenamiento de ExeML?
            8. ¿Qué hago si "ERROR:input key sound is not in model" ocurre cuando uso ExeML para la predicción de clasificación de sonido?
          • Despliegue de modelos
            1. ¿Qué tipo de servicio se despliega en ExeML?
        • Gestión de datos
          1. ¿Hay límites de tamaño para las imágenes que se van a cargar?
          2. ¿Qué hago si no se pueden mostrar las imágenes de un conjunto de datos?
          3. ¿Cómo integro múltiples conjuntos de datos de detección de objetos en un conjunto de datos?
          4. ¿Qué hago si se ha producido un error al importar un conjunto de datos?
          5. ¿Se puede etiquetar un conjunto de datos de tabla?
          6. ¿Qué hago para importar datos etiquetados localmente a ModelArts?
          7. ¿Por qué los datos no se importan con el archivo de manifiesto?
          8. ¿Dónde se almacenan los resultados de etiquetado?
          9. ¿Cómo descargo los resultados de etiquetado en un PC local?
          10. ¿Por qué los miembros del equipo no pueden recibir correos electrónicos para una tarea de etiquetado de equipo?
          11. ¿Pueden dos cuentas etiquetar simultáneamente un conjunto de datos?
          12. ¿Cómo se distribuyen los datos entre los miembros del equipo durante el etiquetado del equipo?
          13. ¿Puedo eliminar un anotador de un equipo de etiquetado con una tarea de etiquetado asignada? ¿Cuál es el impacto en el resultado del etiquetado después de la eliminación? Si no se puede eliminar el anotador, ¿puedo separar el resultado de etiquetado del anotador?
          14. ¿Cómo defino un ejemplo difícil en el etiquetado de datos? ¿Qué muestras se identifican como ejemplos duros?
          15. ¿Puedo agregar varios cuadros de etiquetado a una imagen de conjunto de datos de detección de objetos?
          16. ¿Cómo fusiono dos conjuntos de datos?
          17. ¿Qué significan las opciones para aceptar una tarea de etiquetado de equipo?
          18. ¿Por qué se muestran las imágenes en diferentes ángulos bajo la misma cuenta?
          19. ¿Necesito entrenar datos de nuevo si se agregan datos nuevos después de completar el etiquetado automático?
          20. ¿Por qué el sistema muestra un mensaje que indica que mi etiqueta no se guarda en ModelArts?
          21. ¿Se puede identificar una etiqueta entre varias etiquetas?
          22. ¿Por qué las imágenes recién agregadas no se etiquetan automáticamente después de activar la amplificación de datos?
          23. ¿Por qué no se pueden mostrar o reproducir los vídeos de un conjunto de datos de vídeo?
          24. ¿Por qué todas las muestras etiquetadas almacenadas en un bucket de OBS se muestran como sin etiqueta en ModelArts después de sincronizar el origen de datos?
          25. ¿Cómo uso Soft-NMS para reducir la superposición de cajas delimitadoras?
          26. ¿Por qué se pierden las etiquetas de imagen de ModelArts?
          27. ¿Cómo agrego imágenes a un conjunto de datos de validación o entrenamiento?
          28. ¿Puedo personalizar etiquetas para un conjunto de datos de detección de objetos?
          29. ¿Para qué se puede utilizar la gestión de datos de ModelArts?
          30. ¿Por qué no puedo encontrar mi bucket de OBS creado después de seleccionar una ruta OBS de ModelArts?
          31. ¿Se borrarán mis conjuntos de datos de la versión antigua después de que se interrumpa la versión antigua? Los conjuntos de datos existentes y los nuevos creados en la versión anterior se conservarán después de que se interrumpa la versión anterior.
          32. ¿Por qué mi nueva versión de conjunto de datos no está disponible en versiones?
          33. ¿Cómo puedo ver el tamaño de un conjunto de datos?
          34. ¿Cómo puedo ver los detalles de etiquetado de un nuevo conjunto de datos?
          35. ¿Cómo puedo exportar datos etiquetados?
          36. ¿Por qué no puedo encontrar mi conjunto de datos recién creado?
          37. ¿Qué hago si la cuota de la base de datos es incorrecta?
          38. ¿Cómo divido un conjunto de datos?
          39. ¿Cómo puedo eliminar una imagen de conjunto de datos?
          40. ¿Por qué no hay muestra en el conjunto de datos de ModelArts descargado desde AI Gallery y luego desde un bucket de OBS?
        • Notebook (Nueva Versión)
          • Restricciones
            1. ¿Se admite la escalada de privilegios sudo?
            2. ¿ModelArts soporta apt-get?
            3. ¿Es compatible el motor Keras?
            4. ¿ModelArts es compatible con el motor de Caffe?
            5. ¿Puedo instalar MoXing en un entorno local?
            6. ¿Se pueden iniciar sesión de forma remota en las instancias de notebook?
          • Carga o descarga de datos
            1. ¿Cómo cargo un archivo desde una instancia de Notebook a OBS o descargo un archivo desde OBS a una instancia de Notebook?
            2. ¿Cómo cargo archivos locales a una instancia de Notebook?
            3. ¿Cómo puedo importar archivos grandes a una instancia de notebook?
            4. Where Will the Data Be Uploaded to?
            5. ¿Cómo descargo archivos de una instancia de Notebook a un equipo local?
            6. ¿Cómo puedo copiar datos del entorno de desarrollo del notebook A al notebook B?
          • Almacenamiento de datos
            1. ¿Cómo cambio el nombre de un archivo de OBS?
            2. ¿Todavía existen archivos en /cache después de que se detenga o reinicie una instancia de notebook? ¿Cómo puedo evitar un reinicio?
            3. ¿Cómo uso la biblioteca de pandas para procesar datos en los bucket de OBS?
            4. ¿Cómo accedo al bucket de OBS de otra cuenta desde una instancia de Notebook?
          • Configuraciones de entorno
            1. ¿Cómo puedo activar la función de terminal en DevEnviron de ModelArts?
            2. ¿Cómo instalo las bibliotecas externas en una instancia de notebook?
            3. ¿Cómo puedo resolver la visualización de fuentes anormales en un notebook de ModelArts al que se accede desde iOS?
          • Instancias de notebook
            1. ¿Qué hago si no puedo acceder a mi instancia de notebook?
            2. ¿Qué debo hacer cuando el sistema muestra un mensaje de error que indica que no queda espacio después de ejecutar el comando pip install?
            3. ¿Qué hago si se muestra "Read timed out" después de ejecutar pip install?
            4. ¿Qué hago si el código se puede ejecutar pero no se puede guardar y se muestra el mensaje de error "save error"?
            5. ¿Por qué se notifica un error de tiempo de espera de solicitud cuando hago clic en el botón Open de una instancia de Notebook?
          • Code Execution
            1. ¿Qué hago si una instancia de notebook no ejecuta mi código?
            2. ¿Por qué se descompone la instancia cuando se muestra el núcleo muerto durante la ejecución del código de entrenamiento?
            3. ¿Qué hago si cudaCheckError ocurre durante el entrenamiento?
            4. ¿Qué debo hacer si DevEnviron genera espacio insuficiente?
            5. ¿Por qué se descompone la instancia del notebook cuando se utiliza opencv.imshow?
            6. ¿Por qué no se puede encontrar la ruta de acceso de un archivo de texto generado en el sistema operativo Windows en una instancia de notebook?
            7. ¿Qué debo hacer si JupyterLab no se guarda ningún archivo?
          • VS Code
            1. ¿Qué hago si falló la instalación de un complemento remoto?
            2. ¿Qué hago si solo se puede conectar una instancia de notebook reiniciada después de eliminar localmente known_hosts.?
            3. ¿Qué hago si no se puede acceder al código fuente cuando uso VS Code para la depuración?
            4. ¿Qué hago si se muestra un mensaje que indica un nombre de usuario o una dirección de correo electrónico incorrectos cuando uso VS Code para enviar el código?
            5. ¿Cómo puedo ver los logs remotos en VS Code?
            6. ¿Cómo puedo abrir el archivo de configuración de VS Code settings.json?
            7. ¿Cómo cambio el color de fondo del VS Code al verde claro?
            8. How Can I Set the Default Remote Plug-in in VS Code?
            9. ¿Cómo puedo instalar un complemento local en el extremo remoto o un complemento remoto en el extremo local con VS Code?
          • Fallas en el acceso al entorno de desarrollo con VS Code
            1. ¿Cuándo lo hago si no se muestra la ventana de VS Code?
            2. What Do I Do If a Remote Connection Failed After VS Code Is Opened?
            3. ¿Qué hago si se muestra el mensaje de error "Could not establish connection to xxx" durante una conexión remota?
            4. ¿Qué hago si la conexión a un entorno de desarrollo remoto permanece en estado "Setting up SSH Host xxx: Downloading VS Code Server locally" por más de 10 minutos?
            5. ¿Qué debo hacer si la conexión a un entorno de desarrollo remoto permanece en el estado de "Setting up SSH Host xxx: Downloading VS Code Server locally" por más de 10 minutos?
            6. ¿Qué hago si la conexión a un entorno de desarrollo remoto permanece en el estado de "ModelArts Remote Connect: Connecting to instance xxx..." durante más de 10 minutos?
            7. ¿Qué hago si una conexión remota está en el estado de reintento?
            8. ¿Qué hago si se muestra el mensaje de error "The VS Code Server failed to start"?
            9. ¿Qué hago si se muestra el mensaje de error "Permissions for 'x:/xxx.pem' are too open"?
            10. ¿Qué hago si se muestra un mensaje de error Bad owner or permissions on C:\Users\Administrator/.ssh/config" o "Connection permission denied (publickey)"?
            11. ¿Qué hago si se muestra el mensaje de error "ssh: connect to host xxx.pem port xxxxx: Connection refused"?
            12. ¿Qué hago si se muestra el mensaje de error "ssh: connect to host ModelArts-xxx port xxx: Connection timed out"?
            13. What Do I Do If Error Message "Load key "C:/Users/xx/test1/xxx.pem": invalid format" Is Displayed?
            14. ¿Qué hago si se muestra el mensaje de error "An SSH installation couldn't be found" o "Could not establish connection to instance xxx: 'ssh' ..."?
            15. ¿Qué hago si se muestra un mensaje de error "no such identity: C:/Users/xx /test.pem: No such file or directory"?
            16. ¿Qué hago si se muestra el mensaje de error "Host key verification failed" o "Port forwarding is disabled"?
            17. ¿Qué hago si se muestra el mensaje de error "Failed to install the VS Code Server" o "tar: Error is not recoverable: exiting now"?
            18. ¿Qué hago si se muestra el mensaje de error "XHR failed" cuando se accede a una instancia de notebook remota a través de VS Code?
            19. ¿Qué hago para una conexión de VS Code desconectada automáticamente si no se realiza ninguna operación durante mucho tiempo?
            20. ¿Qué hago si toma mucho tiempo configurar una conexión remota después de actualizar automáticamente VS Code?
            21. ¿Qué hago si se muestra el mensaje de error "Connection reset" durante una conexión de SSH?
            22. ¿Qué puedo hacer si una instancia de Notebook se desconecta o se atasca con frecuencia después de usar MobaXterm para conectarme a la instancia de Notebook en modo SSH?
          • Otros
            1. ¿Cómo uso varias tarjetas de Ascend para la depuración en una instancia de notebook?
            2. ¿Por qué la velocidad de entrenamiento es similar cuando se usan diferentes variantes para notebook?
            3. ¿Cómo realizo entrenamiento incremental cuando uso MoXing?
            4. ¿Cómo puedo ver el uso de la GPU en el notebook?
            5. ¿Cómo puedo obtener el uso de GPU con el código?
            6. ¿Qué indicadores de rendimiento en tiempo real de un chip Ascend puedo ver?
            7. ¿El sistema detiene o elimina automáticamente una instancia de notebook si no habilito la parada automática?
            8. ¿Cuáles son las relaciones entre los archivos almacenados en el JupyterLab, Terminal y OBS?
            9. ¿Cómo puedo migrar datos de una instancia de notebook de versión antigua a una de versión nueva?
            10. ¿Cómo uso los conjuntos de datos creados en ModelArts en una instancia de notebook?
            11. pip y comandos comunes
            12. ¿Cuáles son los tamaños de los directorios /cache para diferentes especificaciones de notebook de DevEnviron?
        • Trabajos de entrenamiento
          • Consultoría funcional
            1. ¿Cuáles son los requisitos de formato para los algoritmos importados desde un entorno local?
            2. ¿Cuáles son las soluciones para el underfitting?
            3. ¿Cuáles son las precauciones para cambiar los trabajos de entrenamiento de la versión antigua a la nueva?
            4. ¿Cómo obtengo un modelo de ModelArts entrenado?
            5. ¿Cómo configuro el entorno de tiempo de ejecución del motor de IA Scikit_Learn 0.18.1?
            6. ¿Deben ser categóricos los hiperparámetros optimizados usando un algoritmo de TPE?
            7. ¿Para qué se utiliza TensorBoard en los trabajos de visualización de modelos?
            8. ¿Cómo obtengo RANK_TABLE_FILE en ModelArts para el entrenamiento distribuido?
            9. ¿Cómo obtengo las versiones CUDA y cuDNN de una imagen personalizada?
            10. ¿Cómo obtengo un archivo de instalación de MoXing?
            11. En un entrenamiento con multinodo, el nodo de PS TensorFlow que funciona como un servidor se suspenderá continuamente. ¿Cómo determina ModelArts si el entrenamiento está completo? ¿Qué nodo es un trabajador?
            12. ¿Cómo instalo MoXing para una imagen personalizada?
          • Lectura de datos durante el entrenamiento
            1. ¿Cómo configuro los datos de entrada y salida para los modelos de entrenamiento de ModelArts?
            2. ¿Cómo mejoro la eficiencia del entrenamiento reduciendo la interacción con OBS?
            3. ¿Por qué la eficiencia de lectura de datos es baja cuando se leen un gran número de archivos de datos durante el entrenamiento?
          • Compilación del código de entrenamiento
            1. ¿Cómo creo un trabajo de entrenamiento cuando el modelo que se va a entrenar hace referencia a un paquete de dependencia?
            2. What Is the Common File Path for Training Jobs?
            3. ¿Cómo instalo una biblioteca de la que depende C++?
            4. ¿Cómo puedo comprobar si una copia de carpeta está completa durante el entrenamiento laboral?
            5. ¿Cómo cargo algunos parámetros bien entrenados durante el entrenamiento laboral?
            6. ¿Cómo obtengo los parámetros del trabajo de entrenamiento del archivo de arranque del trabajo de entrenamiento?
            7. ¿Por qué no puedo usar os.system ('cd xxx') para acceder a la carpeta correspondiente durante el entrenamiento laboral?
            8. ¿Cómo invoco un script de Shell en un trabajo de entrenamiento para ejecutar el archivo .sh?
            9. ¿Cómo obtengo la ruta para almacenar el archivo de dependencia en el código de entrenamiento?
            10. ¿Cuál es la ruta de acceso del archivo si se hace referencia a un archivo del directorio modelo en un paquete personalizado de Python?
          • Creación de un trabajo de entrenamiento
            1. ¿Qué puedo hacer si se muestra el mensaje "Object directory size/quantity exceeds the limit" al crear un trabajo de entrenamiento?
            2. ¿Cuáles son las precauciones para establecer parámetros de entrenamiento?
            3. ¿Cuáles son los tamaños de los directorios /cache para diferentes especificaciones de recursos en el entorno de entrenamiento?
            4. ¿Es seguro el directorio /cache de un trabajo de entrenamiento?
            5. ¿Por qué un trabajo de entrenamiento siempre está en cola?
          • Gestión de versiones de trabajos de entrenamiento
            1. ¿Un trabajo de entrenamiento apoya llamadas programadas o periódicas?
          • Consulta de detalles de trabajo
            1. ¿Cómo puedo comprobar el uso de recursos de un trabajo de entrenamiento?
            2. ¿Cómo accedo a los antecedentes de un trabajo de entrenamiento?
            3. ¿Hay algún conflicto cuando los modelos de dos trabajos de entrenamiento se guardan en el mismo directorio de un contenedor?
            4. Solo se conservan tres dígitos válidos en un log de salida del entrenamiento. ¿Se puede cambiar el valor de loss?
            5. ¿Se puede descargar o migrar un modelo entrenado a otra cuenta? ¿Cómo obtengo la ruta de descarga?
        • Gestión de modelos
          • Importación de modelos
            1. ¿Cómo puedo importar el modelo .h5 de Keras a ModelArts?
            2. ¿Cómo edito los parámetros de dependencia del paquete de instalación en un archivo de configuración de modelo al importar un modelo?
            3. ¿Cómo cambio el puerto predeterminado para crear un servicio en tiempo real usando una imagen personalizada?
          • ¿Qué hago si se produce una excepción de modelo al desplegar un modelo de imagen personalizado?
        • Despliegue del servicio
          • Consultoría funcional
            1. ¿Qué tipos de servicios se pueden desplegar modelos en ModelArts?
            2. ¿Cuáles son las diferencias entre los servicios en tiempo real y los servicios por lotes?
            3. ¿Por qué no puedo seleccionar los recursos de Ascend 310?
            4. ¿Pueden desplegarse localmente los modelos entrenados por ModelArts?
            5. ¿Cuál es el tamaño máximo de un organismo de solicitud de inferencia?
            6. ¿Se pueden facturar los servicios en tiempo real sobre una base anual/mensual?
            7. ¿Cómo selecciono las especificaciones del nodo informático para desplegar un servicio?
            8. ¿Qué es la versión de CUDA para desplegar un servicio en GPU?
          • Servicios en tiempo real
            1. ¿Qué hago si se produce un conflicto en el paquete de dependencia de Python de un script de predicción personalizado cuando despliego un servio en tiempo real?
            2. ¿Cómo acelero la predicción en tiempo real?
            3. ¿Cuál es el formato de una API de servicio en tiempo real?
            4. ¿Cómo puedo comprobar si un modelo causa un error cuando se ejecuta un servicio en tiempo real pero la predicción ha fallado?
            5. ¿Cómo relleno el encabezado de solicitud y el cuerpo de solicitud de una solicitud de inferencia cuando se está ejecutando un servicio en tiempo real?
            6. ¿Por qué no puedo acceder a la dirección de solicitud de inferencia obtenida desde el cliente iniciador?
            7. ¿Qué hago si no se extrae una imagen cuando se despliega, inicia, actualiza o modifica un servicio en tiempo real?
            8. ¿Qué hago si una imagen se reinicia repetidamente cuando se despliega, inicia, actualiza o modifica un servicio en tiempo real?
            9. ¿Qué hago si falló la comprobación del estado de un contenedor cuando se despliega, inicia, actualiza o modifica un servicio en tiempo real?
            10. ¿Qué hago si los recursos son insuficientes cuando se despliega, inicia, actualiza o modifica un servicio en tiempo real?
            11. ¿Qué hago si falló el despliegue de un servicio debido a una cuota insuficiente?
            12. ¿Por qué falló el despliegue de mi servicio con el tiempo de espera deel despliegue adecuado configurado?
        • Grupos de recursos
          1. ¿Puedo usar ECS para crear un grupo de recursos dedicado para ModelArts?
          2. ¿Puedo desplegar varios servicios en un nodo de grupo de recursos dedicado?
          3. ¿Cómo se factura un nodo recién agregado a un grupo de recursos dedicado?
          4. ¿Cuáles son las diferencias entre un grupo de recursos públicos y un grupo de recursos dedicado?
          5. How Do I Log In to a Dedicated Resource Pool Node Through SSH?
          6. ¿Cómo se ponen en cola los trabajos de entrenamiento?
          7. ¿Qué hago si los recursos son insuficientes para mirar un nuevo servicio en tiempo real después de detener un servicio en tiempo real en un grupo de recursos dedicado?
          8. ¿Se puede utilizar un grupo de recursos público para la conexión de red entre ModelArts y el servicio de autenticación para ejecutar algoritmos?
          9. ¿Por qué un grupo de recursos dedicado que no se crea todavía se muestra en la consola después de que se elimina?
          10. ¿Cómo agrego una interconexión de VPC entre un grupo de recursos dedicado y un SFS?
          11. ¿Qué debo hacer si un trabajo de entrenamiento siempre está esperando en una cola de recursos?
        • API/SDK
          1. ¿Se pueden usar las API o los SDK de ModelArts para descargar modelos a una PC local?
          2. ¿Qué entornos de instalación admiten los SDK de ModelArts?
          3. ¿Utiliza ModelArts la API de OBS para acceder a archivos de OBS por una intranet o Internet?
          4. ¿Cómo obtengo una curva de uso de recursos de trabajo después de enviar un trabajo de entrenamiento llamando a una API?
        • Historial de cambios
      • Pasos iniciales
        • Cómo usar ModelArts
        • Desarrolladores de servicios: Construir modelos con ExeML
      • Resource Management
        • Grupo de recursos
        • Clúster elástico
          • Actualizaciones integrales a las funciones de gestión de grupo de recursos de ModelArts
          • Creación de un grupo de recursos
          • Consulta de detalles sobre un grupo de recursos
          • Cambio de tamaño de un grupo de recursos
          • Establecimiento de una política de renovación
          • Modificación de la política de caducidad
          • Migración del espacio de trabajo
          • Cambio de tipos de trabajos soportados por un grupo de recursos
          • Actualización de un controlador de grupo de recursos
          • Eliminación de un grupo de recursos
          • Estado anormal de un grupo de recursos dedicado
          • Red de ModelArts
          • Nodos de ModelArts
        • Logs de auditoría
          • Operaciones de clave registradas por CTS
          • Consulta de logs de auditoria
        • Recursos de monitoreo
          • Descripción general
          • Uso de Grafana para consultar métricas de monitoreo de AOM
            • Procedimiento
            • Instalación y configuración de Grafana
              • Instalación y configuración de Grafana en Windows
              • Instalación y configuración de Grafana en Linux
              • Instalación y configuración de Grafana en una instancia de notebook
            • Configuración de un origen de datos de Grafana
            • Uso de Grafana para configurar paneles y consultar datos de métrica
          • Consulta de todas las métricas de control de ModelArts en la consola de AOM
      • Prácticas recomendadas
        • Muestras oficiales
        • Gestión de permisos
          • Conceptos básicos
          • Mecanismos de gestión de permiso
            • IAM
            • Delegaciones y dependencias
            • Espacio de trabajo
          • Prácticas de configuración en escenarios típicos
            • Asignación de permisos a los usuarios individuales para utilizar ModelArts
            • Asignación de permisos básicos para utilizar ModelArts
              • Escenarios
              • Paso 1 Cree un grupo de usuarios y agregue datos al grupo de usuarios
              • Paso 2 Asignar permisos para el uso de servicios en la nube
              • Paso 3 Configurar la autorización de acceso a ModelArts basada en agentes para el usuario
              • Paso 4 Verificar los datos de usuario
            • Asignación separada de permisos a administradores y desarrolladores
            • Consulta de todas las instancias de notebook de un proyecto de IAM
            • Inicio de sesión en un contenedor de entrenamiento con Cloud Shell
            • Prohibición de que un usuario utilice un grupo de recursos público
            • Concesión de permisos de acceso a la carpeta SFS Turbo a usuarios de IAM
          • Preguntas frecuentes
            • ¿Qué debo hacer si se muestra un mensaje que indica permisos insuficientes cuando utilizo ModelArts?
        • Notebook
          • Creación, migración y gestión de entornos virtuales de Conda basados en SFS
        • Entrenamiento de modelos
          • Uso de un algoritmo personalizado para crear un modelo de reconocimiento de dígitos escrito a mano
          • Ejemplo: creación de una imagen personalizada para el entrenamiento (PyTorch + CPU/GPU)
          • Ejemplo: creación de una imagen personalizada para entrenamiento (MPI + CPU/GPU)
          • Ejemplo: creación de una imagen personalizada para entrenamiento (Horovod-PyTorch y GPU)
          • Ejemplo: creación de una imagen personalizada para entrenamiento (MindSpore y GPU)
          • Ejemplo: creación de una imagen personalizada para entrenamiento (TensorFlow y GPU)
        • Inferencia del modelo
          • Creación de una imagen personalizada y su uso para crear una aplicación de IA
          • Habilitación de un servicio de inferencia para acceder a Internet
          • O&M de extremo a extremo para servicios de inferencia
          • Creación de una aplicación de IA con un motor personalizado
          • Creación de una aplicación de IA con un modelo grande y despliegue de un servicio en tiempo real
          • Migración de un marco de inferencia de terceros a un motor de inferencia personalizado
          • Acceso de alta velocidad a servicios de inferencia por interconexión de las VPC
          • Desarrollo de procesos completos de servicios de WebSocket en tiempo real
      • What's New
      • Function Overview
      • Product Bulletin
        • Product Bulletin
      • Billing
        • Overview
        • Billing Modes
          • Overview
          • Yearly/Monthly
          • Pay-per-Use
        • Billing Item (ModelArts Standard)
          • Data Management
          • Development Environment
          • Model Training
          • Model Management
          • Inference Deployment
          • Dedicated Resource Pool
        • Billing Item (ModelArts Studio)
          • Model Inference Billing Items
        • Billing Examples
        • Changing the Billing Mode
        • Renewal
          • Overview
          • Manual Renewal
          • Auto-Renewal
        • Bills
        • About Arrears
        • Stopping Billing
        • Cost Management
        • Billing FAQs
          • How Do I View the ModelArts Jobs Being Billed?
          • How Do I View ModelArts Expenditure Details?
          • How Do I Stop Billing If I Do Not Use ModelArts?
          • Billing FAQs About ModelArts Standard Data Management
          • What Should I Do to Avoid Unnecessary Billing After I Label Datasets and Exit?
          • How Are Training Jobs Billed?
          • Why Does Billing Continue After All Projects Are Deleted?
        • Historical Documents to Be Brought Offline
          • Package
      • ModelArts User Guide (Standard)
        • ModelArts Standard Usage
        • ModelArts Standard Preparations
          • Configuring Access Authorization for ModelArts Standard
            • Configuring Agency Authorization for ModelArts with One Click
            • Creating an IAM User and Granting ModelArts Permissions
          • Creating and Managing a Workspace
          • Creating an OBS Bucket for ModelArts to Store Data
        • ModelArts Standard Resource Management
          • About ModelArts Standard Resource Pools
          • Creating a Standard Dedicated Resource Pool
          • Managing Standard Dedicated Resource Pools
            • Viewing Details About a Standard Dedicated Resource Pool
            • Resizing a Standard Dedicated Resource Pool
            • Upgrading the Standard Dedicated Resource Pool Driver
            • Rectifying a Faulty Node in a Standard Dedicated Resource Pool
            • Modifying the Job Types Supported by a Standard Dedicated Resource Pool
            • Migrating Standard Dedicated Resource Pools and Networks to Other Workspaces
            • Configuring the Standard Dedicated Resource Pool to Access the Internet
            • Using TMS Tags to Manage Resources by Group
            • Managing Logical Subpools of a Standard Dedicated Resource Pool
            • Releasing Standard Dedicated Resource Pools and Deleting the Network
          • Managing Standard Dedicated Resource Pool Plug-ins
            • Overview
            • Node Fault Detection (ModelArts Node Agent)
            • ModelArts Metric Collector
            • AI Suite (NV GPU)
            • AI Suite (Modelarts Device Plugin)
            • Volcano Scheduler
            • NodeLocal DNSCache
            • Cloud Native Log Collection
            • kube-prometheus-stack
        • Using Workflows for Low-Code AI Development
          • What Is Workflow?
          • Managing a Workflow
            • Searching for a Workflow
            • Viewing the Running Records of a Workflow
            • Managing a Workflow
            • Retrying, Stopping, or Running a Workflow Phase
          • Workflow Development Command Reference
            • Core Concepts of Workflow Development
            • Configuring Workflow Parameters
            • Configuring the Input and Output Paths of a Workflow
            • Creating Workflow Phases
              • Creating a Dataset Phase
              • Creating a Dataset Labeling Phase
              • Creating a Dataset Import Phase
              • Creating a Dataset Release Phase
              • Creating a Training Job Phase
              • Creating a Model Registration Phase
              • Creating a Service Deployment Phase
            • Creating a Multi-Branch Workflow
              • Multi-Branch Workflow
              • Creating a Condition Phase to Control Branch Execution
              • Configuring Phase Parameters to Control Branch Execution
              • Configuring Multi-Branch Phase Data
            • Creating a Workflow
            • Publishing a Workflow
              • Publishing a Workflow to ModelArts
              • Publishing a Workflow to AI Gallery
            • Advanced Workflow Capabilities
              • Using Big Data Capabilities (MRS) in a Workflow
              • Specifying Certain Phases to Run in a Workflow
        • Using Notebook for AI Development and Debugging
          • Application Scenarios
          • Creating a Notebook Instance (Default Page)
          • Creating a Notebook Instance (New Page)
          • Managing Notebook Instances
            • Searching for a Notebook Instance
            • Updating a Notebook Instance
            • Starting, Stopping, or Deleting a Notebook Instance
            • Saving a Notebook Instance
            • Dynamically Expanding EVS Disk Capacity
            • Dynamically Mounting an OBS Parallel File System
            • Viewing Notebook Events
            • Notebook Cache Directory Alarm Reporting
          • Using a Notebook Instance for AI Development Through JupyterLab
            • Using JupyterLab to Develop and Debug Code Online
            • Common Functions of JupyterLab
            • Using Git to Clone the Code Repository in JupyterLab
            • Creating a Scheduled Job in JupyterLab
            • Uploading Files to JupyterLab
              • Uploading Files from a Local Path to JupyterLab
              • Cloning GitHub Open-Source Repository Files to JupyterLab
              • Uploading OBS Files to JupyterLab
              • Uploading Remote Files to JupyterLab
            • Downloading a File from JupyterLab to a Local PC
            • Using MindInsight Visualization Jobs in JupyterLab
            • Using TensorBoard Visualization Jobs in JupyterLab
          • Using Notebook Instances Remotely Through PyCharm
            • Connecting to a Notebook Instance Through PyCharm Toolkit
            • Manually Connecting to a Notebook Instance Through PyCharm
            • Uploading Data to a Notebook Instance Through PyCharm
          • Using Notebook Instances Remotely Through VS Code
            • Connecting to a Notebook Instance Through VS Code
            • Connecting to a Notebook Instance Through VS Code Toolkit
            • Manually Connecting to a Notebook Instance Through VS Code
            • Uploading and Downloading Files in VS Code
          • Using a Notebook Instance Remotely with SSH
          • ModelArts CLI Command Reference
            • ModelArts CLI Commands
            • (Optional) Installing ma-cli Locally
            • Autocompletion for ma-cli Commands
            • ma-cli Authentication
            • ma-cli image Commands for Building Images
            • ma-cli ma-job Commands for Training Jobs
            • ma-cli dli-job Commands for Submitting DLI Spark Jobs
            • Using ma-cli to Copy OBS Data
          • Using MoXing Commands in a Notebook Instance
            • MoXing Framework Functions
            • Using MoXing in Notebook
            • Introducing MoXing Framework
            • Mapping Between mox.file and Local APIs and Switchover
            • Sample Code for Common Operations
            • Sample Code for Advanced MoXing Usage
        • Preparing and Processing Data
          • Preparing Data
          • Creating a ModelArts Dataset
          • Importing Data to a ModelArts Dataset
            • Introduction to Data Importing
            • Importing Data from OBS
              • Introduction to Importing Data from OBS
              • Importing Data from an OBS Path to ModelArts
              • Specifications for Importing Data from an OBS Directory
              • Importing a Manifest File to ModelArts
              • Specifications for Importing a Manifest File
            • Importing Data from MRS to ModelArts
            • Importing Data from Local Files
          • Labeling ModelArts Data
            • Scenarios
            • Manual Labeling
              • Creating a Manual Labeling Job
              • Labeling Images
              • Labeling Text
              • Labeling Audio
              • Labeling Video
              • Managing Labeling Data
            • Auto Labeling
              • Creating an Auto Labeling Job
              • Hard Examples of an Auto Labeling Job
              • Auto Grouping for Labeling Jobs
            • Team Labeling
              • Using Team Labeling
              • Creating and Managing Teams
              • Creating a Team Labeling Job
              • Reviewing and Accepting Team Labeling Results
              • Managing Teams and Team Members
            • Managing Labeling Jobs
          • Publishing ModelArts Data
          • Analyzing ModelArts Data Characteristics
          • Exporting Data from a ModelArts Dataset
            • Exporting Data from ModelArts to OBS
            • Exporting Data as a New Dataset
          • Getting Started: Creating an Object Detection Dataset
        • Using ModelArts Standard to Train Models
          • Model Training Process
          • Preparing Model Training Code
            • Starting Training Using a Preset Image's Boot File
            • Developing Code for Training Using a Preset Image
            • Developing Code for Training Using a Custom Image
            • Configuring Password-free SSH Mutual Trust Between Instances for a Training Job Created Using a Custom Image
          • Preparing a Model Training Image
          • Creating an Algorithm
          • Creating a Production Training Job
          • Creating a Production Training Job (New Version)
          • Distributed Model Training
            • Overview
            • Creating a Single-Node Multi-PU Distributed Training Job (DataParallel)
            • Creating a Multiple-Node Multi-PU Distributed Training Job (DistributedDataParallel)
            • Example: Creating a DDP Distributed Training Job (PyTorch + GPU)
            • Example: Creating a DDP Distributed Training Job (PyTorch + NPU)
          • Enabling Dynamic Route Acceleration for Training Jobs
          • Incremental Model Training
          • Automatic Model Tuning (AutoSearch)
            • Overview
            • Creating a Training Job for Automatic Model Tuning
          • High Model Training Reliability
            • Training Job Fault Tolerance Check
            • Training Log Failure Analysis
            • Detecting Training Job Suspension
            • Training Job Restart Upon Suspension
            • Resumable Training
            • Enabling Unconditional Auto Restart
          • Configuring Supernode Affinity Group Instances
          • Managing Model Training Jobs
            • Viewing Training Job Details
            • Visualizing the Training Job Process
            • Viewing the Resource Usage of a Training Job
            • Viewing the Model Evaluation Result
            • Viewing Training Job Events
            • Viewing Training Job Logs
            • Priority of a Training Job
            • Using Cloud Shell to Debug a Production Training Job
            • Saving the Image of a Debug Training Job
            • Copying, Stopping, or Deleting a Training Job
            • Managing Environment Variables of a Training Container
            • Viewing Training Job Tags
            • Managing Training Experiments
            • Viewing Monitoring Metrics of a Training Job
        • Using ModelArts Standard to Deploy Models for Inference and Prediction
          • Overview
          • Creating a Model
            • Creation Methods
            • Importing a Meta Model from a Training Job
            • Importing a Meta Model from OBS
            • Importing a Meta Model from a Container Image
          • Model Creation Specifications
            • Model Package Structure
            • Specifications for Editing a Model Configuration File
            • Specifications for Writing a Model Inference Code File
            • Specifications for Using a Custom Engine to Create a Model
            • Examples of Custom Scripts
          • Deploying a Model as Real-Time Inference Jobs
            • Deploying and Using Real-Time Inference
            • Deploying a Model as a Real-Time Service
            • Authentication Methods for Accessing Real-time Services
              • Accessing a Real-Time Service Through Token-based Authentication
              • Accessing a Real-Time Service Through AK/SK-based Authentication
              • Accessing a Real-Time Service Through App Authentication
            • Accessing a Real-Time Service Through Different Channels
              • Accessing a Real-Time Service Through a Public Network
              • Accessing a Real-Time Service Through a VPC Channel
              • Accessing a Real-Time Service Through a VPC High-Speed Channel
            • Accessing a Real-Time Service Using Different Protocols
              • Accessing a Real-Time Service Using WebSocket
              • Accessing a Real-Time Service Using Server-Sent Events
          • Deploying a Model as a Batch Inference Service
          • Managing ModelArts Models
            • Viewing ModelArts Model Details
            • Viewing ModelArts Model Events
            • Managing ModelArts Model Versions
          • Managing a Synchronous Real-Time Service
            • Viewing Details About a Real-Time Service
            • Viewing Events of a Real-Time Service
            • Managing the Lifecycle of a Real-Time Service
            • Modifying a Real-Time Service
            • Viewing Performance Metrics of a Real-Time Service on Cloud Eye
            • Integrating a Real-Time Service API into the Production Environment
            • Configuring Auto Restart upon a Real-Time Service Fault
          • Managing Batch Inference Jobs
            • Viewing Details About a Batch Service
            • Viewing Events of a Batch Service
            • Managing the Lifecycle of a Batch Service
            • Modifying a Batch Service
        • Creating a Custom Image for ModelArts Standard
          • Applications of Custom Images
          • Preset Images Supported by ModelArts
            • ModelArts Preset Image Updates
            • ModelArts Unified Images
            • Preset Dedicated Images in Notebook Instances
            • Preset Dedicated Images for Training
            • Preset Dedicated Images for Inference
          • Creating a Custom Image for a Notebook Instance
            • Creating a Custom Image
            • Creating a Custom Image on ECS and Using It
            • Creating a Custom Image Using Dockerfile
            • Creating a Custom Image Using the Image Saving Function
          • Creating a Custom Image for Model Training
            • Creating a Custom Training Image
            • Creating a Custom Training Image Using a Preset Image
            • Migrating Existing Images to ModelArts
            • Creating a Custom Training Image (PyTorch + Ascend)
            • Creating a Custom Training Image (PyTorch + CPU/GPU)
            • Creating a Custom Training Image (MPI + CPU/GPU)
            • Creating a Custom Training Image (Tensorflow + GPU)
            • Creating a Custom Training Image (MindSpore + Ascend)
          • Creating a Custom Image for Inference
            • Creating a Custom Image for a Model
            • Creating a Custom Image on ECS
        • Monitoring ModelArts Standard Resources
          • Overview
          • Viewing Monitoring Metrics on the ModelArts Console
          • Viewing All ModelArts Monitoring Metrics on the AOM Console
          • Using Grafana to View AOM Monitoring Metrics
            • Installing and Configuring Grafana
              • Installing and Configuring Grafana on Windows
              • Installing and Configuring Grafana on Linux
              • Installing and Configuring Grafana on a Notebook Instance
            • Configuring a Grafana Data Source
            • Configuring a Dashboard to View Metric Data
        • Using CTS to Audit ModelArts Standard
          • ModelArts Standard Key Operations Traced by CTS
          • Viewing ModelArts Standard Audit Logs
      • ModelArts Studio (MaaS) User Guide
        • ModelArts Studio (MaaS) Usage
        • Configuring ModelArts Studio (MaaS) Access Authorization
          • Creating an IAM User and Granting ModelArts Studio (MaaS) Permissions
          • Configuring ModelArts Agency Authorization for Using ModelArts Studio (MaaS)
          • Configuring the Missing ModelArts Studio (MaaS) Permissions
        • Preparing ModelArts Studio (MaaS) Resources
        • ModelArts Studio (MaaS) Real-Time Inference Services
          • Viewing a Built-in Model in ModelArts Studio (MaaS)
          • Deploying a Model Service in ModelArts Studio (MaaS)
          • Managing My Services in ModelArts Studio (MaaS)
            • Starting, Stopping, Periodically Starting or Stopping, or Deleting a Service in ModelArts Studio (MaaS)
            • Scaling Model Service Instances in ModelArts Studio (MaaS)
            • Modifying the QPS of a Model Service in ModelArts Studio (MaaS)
            • Upgrading a Model Service in ModelArts Studio (MaaS)
          • Calling a Model Service in ModelArts Studio (MaaS)
          • ModelArts Studio (MaaS) API Call Specifications
            • Sending a Chat Request (Chat/POST)
            • Obtaining the Model List (Models/GET)
            • Error Codes
          • Creating a Multi-Turn Dialogue in ModelArts Studio (MaaS)
        • ModelArts Studio (MaaS) Management and Statistics
          • Managing API Keys in ModelArts Studio (MaaS)
      • ModelArts User Guide (Lite Server)
        • Before You Start
          • Using Lite Server
          • High-Risk Operations
          • Mapping Between Compute Resources and Image Versions
        • Provisioning Lite Server Resources (Old Version)
        • Provisioning Lite Server Resources (New Version)
        • Configuring Lite Server Resources
          • Configuration Process
          • Configuring the Network
          • Configuring the Storage
          • Configuring the Software Environment
            • Configuring the Software Environment on the NPU Server
        • Using Lite Server Resources
          • Collecting and Uploading NPU Logs
          • Collecting and Uploading GPU Logs
        • Managing Lite Server Resources
          • Viewing Lite Server Details
          • Starting or Stopping the Lite Server
          • Synchronizing the Lite Server Status
          • Changing or Resetting the Lite Server OS
          • Creating a Lite Server OS
          • Lite Server Hot Standby Nodes
          • Modifying a Lite Server Name
          • Authorizing the Repair of Lite Server Nodes
          • Releasing Lite Server Resources
        • Lite Server Plug-in Management
          • Managing Lite Server AI Plug-ins
          • Upgrading the Ascend Driver and Firmware Version on Lite Server
          • Lite Server Node Fault Diagnosis
          • One-Click Pressure Test for Lite Server Nodes
        • Managing Lite Server Supernodes
          • Expanding and Reducing Lite Server Supernodes
          • Periodic Stress Test on Lite Server Supernodes
          • Enabling HCCL Communication Operator-Level Re-execution for Supernodes
        • Monitoring Lite Server Resources
          • Using Cloud Eye to Monitor NPU Resources of a Single Lite Server Node
          • Using Cloud Eye to Monitor the Health Status of Snt9B23 Supernodes
        • Managing CloudPond NPU Resources for Lite Server
        • Using CTS to Audit Lite Server Operations
      • ModelArts User Guide (Lite Cluster)
        • Before You Start
          • Using Lite Cluster
          • High-Risk Operations
          • Software Versions Required by Different Models
        • Enabling Lite Cluster Resources
        • Configuring Lite Cluster Resources
          • Configuring the Lite Cluster Environment
          • Configuring the Lite Cluster Network
          • Configuring kubectl
          • Configuring Lite Cluster Storage
          • (Optional) Configuring the Driver
          • (Optional) Configuring Image Pre-provisioning
        • Using Lite Cluster Resources
          • Using Snt9B for Distributed Training in a Lite Cluster Resource Pool
          • Performing PyTorch NPU Distributed Training In a ModelArts Lite Resource Pool Using Ranktable-based Route Planning
          • Using Snt9B for Inference in a Lite Cluster Resource Pool
          • Using Ascend FaultDiag to Diagnose Logs in the ModelArts Lite Cluster Resource Pool
          • Mounting an SFS Turbo File System to a Lite Cluster
        • Managing Lite Cluster Resources
          • Managing Lite Cluster Resources
          • Managing Lite Cluster Resource Pools
          • Managing Lite Cluster Node Pools
          • Managing Lite Cluster Nodes
          • Resizing a Lite Cluster Resource Pool
          • Upgrading the Lite Cluster Resource Pool Driver
          • Upgrading the Driver of a Lite Cluster Resource Pool Node
          • Monitoring Lite Cluster Resources
            • Viewing Lite Cluster Metrics on AOM
            • Viewing Lite Cluster Metrics Using Prometheus
          • Releasing Lite Cluster Resources
        • Lite Cluster Plug-in Management
          • Overview
          • Node Fault Detection (ModelArts Node Agent)
          • ModelArts Metric Collector
          • AI Suite (ModelArts Device Plugin)
          • Volcano Scheduler
          • Cluster Autoscaler
      • ModelArts User Guide (AI Gallery)
        • AI Gallery
        • Free Assets
        • My Gallery
        • Subscription & Use
          • Searching for and Adding an Asset to Favorites
          • Subscribing to Free Algorithms
          • Subscribing to a Workflow
        • Publish & Share
          • Publishing a Free Algorithm
          • Publishing a Free Model
      • SDK Reference
        • Before You Start
        • SDK Overview
        • Getting Started
        • (Optional) Installing the ModelArts SDK Locally
        • Session Authentication
          • (Optional) Session Authentication
          • Authentication Using the Username and Password
          • AK/SK-based Authentication
        • OBS Management
          • Overview of OBS Management
          • Transferring Files (Recommended)
          • Uploading a File to OBS
          • Uploading a Folder to OBS
          • Downloading a File from OBS
          • Downloading a Folder from OBS
        • Data Management
          • Managing Datasets
            • Querying a Dataset List
            • Creating a Dataset
            • Querying Details About a Dataset
            • Modifying a Dataset
            • Deleting a Dataset
          • Managing Dataset Versions
            • Obtaining a Dataset Version List
            • Creating a Dataset Version
            • Querying Details About a Dataset Version
            • Deleting a Dataset Version
          • Managing Samples
            • Querying a Sample List
            • Querying Details About a Sample
            • Deleting Samples in a Batch
          • Managing Dataset Import Tasks
            • Querying a Dataset Import Task List
            • Creating a Dataset Import Task
            • Querying the Status of a Dataset Import Task
          • Managing Export Tasks
            • Querying a Dataset Export Task List
            • Creating a Dataset Export Task
            • Querying the Status of a Dataset Export Task
          • Managing Manifest Files
            • Overview of Manifest Management
            • Parsing a Manifest File
            • Creating and Saving a Manifest File
            • Parsing a Pascal VOC File
            • Creating and Saving a Pascal VOC File
          • Managing Labeling Jobs
            • Creating a Labeling Job
            • Obtaining the Labeling Job List of a Dataset
            • Obtaining Details About a Labeling Job
        • Training Management (New Version)
          • Training Jobs
            • Creating a Training Job
            • Debugging a Training Job
              • Using the SDK to Debug a Multi-Node Distributed Training Job
              • Using the SDK to Debug a Single-Node Training Job
            • Obtaining Training Jobs
            • Obtaining the Details About a Training Job
            • Modifying the Description of a Training Job
            • Deleting a Training Job
            • Terminating a Training Job
            • Obtaining Training Logs
            • Obtaining the Runtime Metrics of a Training Job
          • APIs for Resources and Engine Specifications
            • Obtaining Resource Flavors
            • Obtaining Engine Types
        • Training Management (Old Version)
          • Training Jobs
            • Creating a Training Job
            • Debugging a Training Job
            • Querying the List of Training Jobs
            • Querying the Details About a Training Job
            • Modifying the Description of a Training Job
            • Obtaining the Name of a Training Job Log File
            • Querying Training Job Logs
            • Deleting a Training Job
          • Training Job Versions
            • Creating a Training Job Version
            • Querying the List of Training Job Versions
            • Querying the Details About a Training Job Version
            • Stopping a Training Job Version
            • Deleting a Training Job Version
          • Training Job Parameter Configuration
            • Creating a Training Job Configuration
            • Querying the List of Training Job Parameter Configuration Objects
            • Querying the List of Training Job Configurations
            • Querying the Details About a Training Job Configuration
            • Modifying a Training Job Configuration
            • Deleting a Training Job Configuration
          • Visualization Jobs
            • Creating a Visualization Job
            • Querying the List of Visualization Job Objects
            • Querying the List of Visualization Jobs
            • Querying the Details About a Visualization Job
            • Modifying the Description of a Visualization Job
            • Stopping a Visualization Job
            • Restarting a Visualization Job
            • Deleting a Visualization Job
          • Resource and Engine Specifications
            • Querying a Built-in Algorithm
            • Querying the List of Resource Flavors
            • Querying the List of Engine Types
          • Job Statuses
        • Model Management
          • Debugging a Model
          • Importing a Model
          • Obtaining Models
          • Obtaining Model Objects
          • Obtaining Details About a Model
          • Deleting a Model
        • Service Management
          • Service Management Overview
          • Deploying a Local Service for Debugging
          • Deploying a Real-Time Service
          • Obtaining Details About a Service
          • Testing an Inference Service
          • Obtaining Services
          • Obtaining Service Objects
          • Updating Service Configurations
          • Obtaining Service Monitoring Information
          • Obtaining Service Logs
          • Delete a Service
        • Change History
      • Troubleshooting
        • General Issues
          • OBS Errors on ModelArts
          • ModelArts.7211: Restricted Account
        • DevEnviron
          • Environment Configuration Faults
            • Disk Space Used Up
            • An Error Is Reported When Conda Is Used to Install Keras 2.3.1 in Notebook
            • Error "HTTP error 404 while getting xxx" Is Reported During Dependency Installation in a Notebook
            • The numba Library Has Been Installed in a Notebook Instance and Error "import numba ModuleNotFoundError: No module named 'numba'" Is Reported
            • Failed to Save Files in JupyterLab
            • "Server Connection Error" Is Displayed After the Kernelgateway Process Is Stopped
            • SSH Access Is Occasionally Denied, and the Error Message "Not allowed at this time" Is Displayed
          • Instance Faults
            • Failed to Create a Notebook Instance and JupyterProcessKilled Is Displayed in Events
            • Failed to Access a Notebook Instance
            • An Error Is Displayed Indicating No Space Left After the pip install Command Is Executed
            • Code Can Be Run But Cannot Be Saved and Error Message "save error" Is Displayed
            • A Request Timeout Error Is Reported When the Open Button of a Notebook Instance Is Clicked
            • ModelArts.6333 Error Occurs
            • What Can I Do If a Message Is Displayed Indicating that the Token Does Not Exist or Is Lost When I Open a Notebook Instance?
          • Code Running Failures
            • An Error Occurs When You Run Code on a Notebook Instance Because No File Is Found in /tmp
            • Notebook Instance Failed to Run Code
            • "dead kernel" Is Displayed and the Instance Breaks Down When Training Code Is Run
            • cudaCheckError Occurs During Training
            • What Do I Do If Insufficient Space Is Displayed in DevEnviron?
            • Notebook Instance Breaks Down When opencv.imshow Is Used
            • Path of a Text File Generated in the Windows OS Cannot Be Found on a Notebook Instance
            • What Do I Do If No Kernel Is Displayed After a Notebook File Is Created?
          • JupyterLab Plug-in Faults
            • Invalid Git Plug-in Password
          • Failures to Access the Development Environment Through VS Code
            • VS Code Window Is Not Displayed
            • Remote Connection Failed After VS Code Is Opened
            • Failed to Connect to the Development Environment Via VS Code
            • Error Message "Could not establish connection to xxx" Is Displayed During a Remote Connection
            • Connection to a Remote Development Environment Remains in the "Setting up SSH Host xxx: Downloading VS Code Server locally" State for More Than 10 Minutes
            • What Do I Do If the Connection to a Remote Development Environment Remains in the State of "Setting up SSH Host xxx: Copying VS Code Server to host with scp" for More Than 10 Minutes?
            • Connection to a Remote Development Environment Remains in the State of "ModelArts Remote Connect: Connecting to instance xxx..." for More Than 10 Minutes
            • Remote Connection Is in the Retry State
            • Error Message "The VS Code Server failed to start" Is Displayed
            • Error Message "Permissions for 'x:/xxx.pem' are too open" Is Displayed
            • Error Message "Bad owner or permissions on C:\Users\Administrator/.ssh/config" Is Displayed
            • Error Message "Connection permission denied (publickey)" Is Displayed
            • What Do I Do If Error Message "ssh: connect to host xxx.pem port xxxxx: Connection refused" Is Displayed?
            • What Do I Do If Error Message "ssh: connect to host ModelArts-xxx port xxx: Connection timed out" Is Displayed?
            • Error Message "Load key "C:/Users/xx/test1/xxx.pem": invalid format" Is Displayed
            • Error Message "An SSH installation couldn't be found" or "Could not establish connection to instance xxx: 'ssh' ..." Is Displayed
            • Error Message "no such identity: C:/Users/xx /test.pem: No such file or directory" Is Displayed
            • Error Message "Host key verification failed" or "Port forwarding is disabled" Is Displayed
            • Error Message "Failed to install the VS Code Server" or "tar: Error is not recoverable: exiting now" Is Displayed
            • Error Message "XHR failed" Is Displayed During VS Code's Connection to a Remote Notebook Instance
            • VS Code Connection Automatically Disconnected If No Operation Is Performed for a Long Time
            • Remote Connection Takes a Long Time After VS Code Is Automatically Upgraded
            • Error Message "Connection reset" Is Displayed During an SSH Connection
            • Notebook Instance Is Frequently Disconnected or Stuck After It Is Connected with MobaXterm Using SSH
            • Error Message "Missing GLIBC, Missing required dependencies" Is Displayed When VS Code Is Used to Connect to a Development Environment
            • Error Message Is Displayed Indicating That ms-vscode-remote.remot-sdh Is Uninstalled Due to a Reported Issue When VSCode-huawei Is Used
            • Instance Directory in VS Code Does Not Match That on the Cloud When VS Code Is Used to Connect to an Instance
          • Custom Image Faults
            • Faults of Custom Images on Notebook Instances
            • What If the Error Message "there are processes in 'D' status, please check process status using'ps -aux' and kill all the 'D' status processes" or "Buildimge,False,Error response from daemon,Cannot pause container xxx" Is Displayed When I Save an Image?
            • What Do I Do If Error "container size %dG is greater than threshold %dG" Is Displayed When I Save an Image?
            • What Do I Do If Error "too many layers in your image" Is Displayed When I Save an Image?
            • What Do I Do If Error "The container size (xG) is greater than the threshold (25G)" Is Reported When I Save an Image?
            • Error Message "BuildImage,True,Commit successfully|PushImage,False,Task is running." Is Displayed When an Image Is Saved
            • No Kernel Is Displayed After a Notebook Instance Created Using a Custom Image Is Started
            • Some Extra Packages Are Found in the Conda Environment Built Using a Custom Image
            • Failed to Create a Custom Image Using ma-cli and an Error Is Displayed Indicating that the File Does Not Exist
            • Error Message "Unexpected error from cudaGetDeviceCount" Is Displayed When Torch Is Used
            • Unable to Access a Notebook Instance Created Using an Old Image
          • Other Faults
            • Failed to Open the checkpoints Folder in Notebook
            • Failed to Use a Purchased Dedicated Resource Pool to Create New-Version Notebook Instances
            • Error Message "Permission denied" Is Displayed When the tensorboard Command Is Used to Open a Log File on a Notebook Instance
        • Training Jobs
          • OBS Operation Issues
            • Failed to Read Files
            • Error Message Is Displayed Repeatedly When a TensorFlow-1.8 Job Is Connected to OBS
            • TensorFlow Stops Writing TensorBoard to OBS When the Size of Written Data Reaches 5 GB
            • Error "Unable to connect to endpoint" Error Occurs When a Model Is Saved
            • Error Message "BrokenPipeError: Broken pipe" Is Displayed When OBS Data Is Copied
            • Error Message "ValueError: Invalid endpoint: obs.xxxx.com" Is Displayed in Logs
            • Error Message "errorMessage:The specified key does not exist" Displayed in Logs
          • In-Cloud Migration Adaptation Issues
            • Failed to Import a Module
            • Error Message "No module named .*" Is Displayed in Training Job Logs
            • Failed to Install a Third-Party Package
            • Failed to Download the Code Directory
            • Error Message "No such file or directory" Is Printed in Training Job Logs
            • Failed to Find the .so File During Training
            • ModelArts Training Job Failed to Parse Parameters and an Error Is Displayed in the Log
            • Training Output Path Is Used by Another Job
            • Error Message "RuntimeError: std:exception" Is Displayed for a PyTorch 1.0 Engine
            • Error Message "retCode=0x91, [the model stream execute failed]" Displayed in MindSpore Logs
            • Error Occurred When Pandas Reads Data from an OBS File If MoXing Is Used to Adapt to an OBS Path
            • Error Message "Please upgrade numpy to >= xxx to use this pandas version" Is Displayed in Logs
            • Reinstalled CUDA Version Does Not Match the One in the Target Image
            • Error ModelArts.2763 Occurred During Training Job Creation
            • Error Message "AttributeError: module '***' has no attribute '***'" Is Displayed Training Job Logs
            • System Container Exits Unexpectedly
          • Hard Faults Due to Space Limit
            • Downloading Files Timed Out or No Space Left for Reading Data
            • Insufficient Container Space for Copying Data
            • Error Message "No space left" Displayed When a TensorFlow Multi-node Job Downloads Data to /cache
            • Size of the Log File Has Reached the Limit
            • Error Message "write line error" Is Displayed in Logs
            • Error Message "No space left on device" Is Displayed in Logs
            • Training Job Failed Due to OOM
            • Insufficient Disk Space
          • Internet Access Issues
            • Error Message "Network is unreachable" Is Displayed in Logs
            • URL Connection Timed Out in a Running Training Job
          • Permission Issues
            • Error "stat:403 reason:Forbidden" Is Displayed in Logs When a Training Job Accesses OBS
            • Error Message "Permission denied" Is Displayed in Logs
          • GP Issues
            • Error Message "No CUDA-capable device is detected" Is Displayed in Logs
            • Error Message "RuntimeError: connect() timed out" Is Displayed in Logs
            • Error Message "cuda runtime error (10) : invalid device ordinal at xxx" Is Displayed in Logs
            • Error Message "RuntimeError: Cannot re-initialize CUDA in forked subprocess" Is Displayed in Logs
            • No GP Detected in a Training Job
          • Service Code Issues
            • Error Message "pandas.errors.ParserError: Error tokenizing data. C error: Expected .* fields" Is Displayed in Logs
            • Error Message "max_pool2d_with_indices_out_cuda_frame failed with error code 0" Is Displayed in Logs
            • Training Job Failed with Error Code 139
            • Debugging Training Code in a Development Environment
            • Error Message "'(slice(0, 13184, None), slice(None, None, None))' is an invalid key" Is Displayed in Logs
            • Error Message "DataFrame.dtypes for data must be int, float or bool" Is Displayed in Logs
            • Error Message "CUDNN_STATUS_NOT_SUPPORTED" Is Displayed in Logs
            • Error Message "Out of bounds nanosecond timestamp" Is Displayed in Logs
            • Error Message "Unexpected keyword argument passed to optimizer" Is Displayed in Logs
            • Error Message "no socket interface found" Is Displayed in Logs
            • Error Message "Runtimeerror: Dataloader worker (pid 46212) is killed by signal: Killed BP" Displayed in Logs
            • Error Message "AttributeError: 'NoneType' object has no attribute 'dtype'" Displayed in Logs
            • Error Message "No module name 'unidecode'" Is Displayed in Logs
            • Distributed TensorFlow Cannot Use tf.variable
            • When MXNet Creates kvstore, the Program Is Blocked and No Error Is Reported
            • ECC Error Occurs in the Log, Causing Training Job Failure
            • Training Job Failed Because the Maximum Recursion Depth Is Exceeded
            • Training Using a Built-in Algorithm Failed Due to a bndbox Error
            • Training Job Status Is Reviewing Job Initialization
            • Training Job Process Exits Unexpectedly
            • Stopped Training Job Process
          • Training Job Suspensions
            • Locating Training Job Suspension
            • Data Replication Suspension
            • Suspension Before Training
            • Suspension During Training
            • Suspension in the Last Training Epoch
          • Running a Training Job Failed
            • Troubleshooting a Training Job Failure
            • An NCCL Error Occurs When a Training Job Fails to Be Executed
            • Troubleshooting Process
            • A Training Job Created Using a Custom Image Is Always in the Running State
            • Failed to Find the Boot File When a Training Job Is Created Using a Custom Image
            • Running a Job Failed Due to Persistently Rising Memory Usage
          • Training Jobs Created in a Dedicated Resource Pool
            • No Cloud Storage Name or Mount Path Displayed on the Page for Creating a Training Job
            • Storage Volume Failed to Be Mounted to the Pod During Training Job Creation
          • Training Performance Issues
            • Training Performance Deteriorated
        • Inference Deployment
          • Model Management
            • Failed to Create a Model
            • Suspended Account or Insufficient Permission to Import Models
            • Failed to Build an Image or Import a File During Model Creation
            • Failed to Obtain the Directory Structure in the Target Image When Creating a Model Through OBS
            • Failed to Obtain Certain Logs on the ModelArts Log Query Page
            • Failed to Download a pip Package When a Model Is Created Using OBS
            • Failed to Use a Custom Image to Create a Model
            • Insufficient Disk Space Is Displayed When a Service Is Deployed After a Model Is Imported
            • Error Occurred When a Created Model Is Deployed as a Service
            • Invalid Runtime Dependency Configured in an Imported Custom Image
            • Garbled Characters Displayed in a Model Name Returned When Model Details Are Obtained Through an API
            • Failed to Import a Model Due to Oversized Model or Image
            • A Single Model File to Be Imported Exceeds the Size Limit (5 GB)
            • Creating a Model Failed Due to Image Building Timeout
          • Service Deployment
            • Error Occurred When a Custom Image Model Is Deployed as a Real-Time Service
            • Alarm Status of a Deployed Real-Time Service
            • Failed to Start a Service
            • Failed to Pull an Image When a Service Is Deployed, Started, Upgraded, or Modified
            • Image Restarts Repeatedly When a Service Is Deployed, Started, Upgraded, or Modified
            • Container Health Check Fails When a Service Is Deployed, Started, Upgraded, or Modified
            • Resources Are Insufficient When a Service Is Deployed, Started, Upgraded, or Modified
            • Error Occurred When a CV2 Model Package Is Used to Deploy a Real-Time Service
            • Service Is Consistently Being Deployed
            • A Started Service Is Intermittently in the Alarm State
            • Failed to Deploy a Service and Error "No Module named XXX" Occurred
            • Insufficient Permission to or Unavailable Input/Output OBS Path of a Batch Service
            • Error "No CUDA runtime is found" Occurred When a Real-Time Service Is Deployed
            • What Can I Do if the Memory Is Insufficient?
            • ModelArts.3520 The Number of Real-Time Services Cannot Exceed 11
            • "pod has unbound immediate PersistentVolumeClaims" Is Displayed During Service Deployment
          • Service Prediction
            • Service Prediction Failed
            • Error "APIG.XXXX" Occurred in a Prediction Failure
            • Error ModelArts.4206 Occurred in Real-Time Service Prediction
            • Error ModelArts.4302 Occurred in Real-Time Service Prediction
            • Error ModelArts.4503 Occurred in Real-Time Service Prediction
            • Error MR.0105 Occurred in Real-Time Service Prediction
            • Method Not Allowed
            • Request Timed Out
            • Error Occurred When an API Is Called for Deploying a Model Created Using a Custom Image
            • Error "DL.0105" Occurred During Real-Time Inference
        • MoXing
          • Error Occurs When MoXing Is Used to Copy Data
          • How Do I Disable the Warmup Function of the Mox?
          • Pytorch Mox Logs Are Repeatedly Generated
          • Failed to Perform Local Fine Tuning on the Checkpoint Generated by moxing.tensorflow
          • Copying Data Using MoXing Is Slow and the Log Is Repeatedly Printed in a Training Job
          • Failed to Access a Folder Using MoXing and Read the Folder Size Using get_size
        • APIs or SDKs
          • "ERROR: Could not install packages due to an OSError" Occurred During ModelArts SDK Installation
          • Error Occurred During Service Deployment After the Target Path to a File Downloaded Through a ModelArts SDK Is Set to a File Name
          • A Training Job Created Using an API Is Abnormal
          • Execution of a huaweicloud.com API Times Out
        • Resource Pool
          • Failed to Create a Resource Pool
          • Faulty Nodes in a Standard Resource Pool
        • Lite Cluster
          • Failed to Create a Resource Pool
          • How Do I Locate and Rectify a Node Fault in a Cluster Resource Pool?
          • All Privilege Pool Data Is Displayed as 0%
          • A Reset Node Cannot Be Used
          • How Do I Automatically Restore Services When Cluster Node Faults Occur?
      • Videos
      • More Documents
        • Preparations (To Be Offline)
          • Creating a Huawei ID and Enabling Huawei Cloud Services
          • Logging In to the ModelArts Management Console
          • Configuring Access Authorization (Global Configuration)
          • Creating an OBS Bucket
          • Enabling ModelArts Resources
            • ModelArts Resources
            • Pay-Per-Use
        • DevEnviron
          • Introduction to DevEnviron
          • Application Scenarios
          • Managing Notebook Instances
            • Creating a Notebook Instance
            • Accessing a Notebook Instance
            • Searching for, Starting, Stopping, or Deleting a Notebook Instance
            • Changing a Notebook Instance Image
            • Changing the Flavor of a Notebook Instance
            • Selecting Storage in DevEnviron
            • Dynamically Mounting an OBS Parallel File System
            • Dynamically Expanding EVS Disk Capacity
            • Modifying the SSH Configuration for a Notebook Instance
            • Viewing the Notebook Instances of All IAM Users Under One Tenant Account
            • Viewing Notebook Events
            • Notebook Cache Directory Alarm Reporting
          • JupyterLab
            • Operation Process in JupyterLab
            • JupyterLab Overview and Common Operations
            • Code Parametrization Plug-in
            • Using ModelArts SDK
            • Using the Git Plug-in
            • Visualized Model Training
              • Introduction to Training Job Visualization
              • MindInsight Visualization Jobs
              • TensorBoard Visualization Jobs
            • Uploading and Downloading Data in Notebook
              • Uploading Files to JupyterLab
                • Scenarios
                • Uploading Files from a Local Path to JupyterLab
                  • Upload Scenarios and Entries
                  • Uploading a Local File Less Than 100 MB to JupyterLab
                  • Uploading a Local File with a Size Ranging from 100 MB to 5 GB to JupyterLab
                  • Uploading a Local File Larger Than 5 GB to JupyterLab
                • Cloning an Open-Source Repository in GitHub
                • Uploading OBS Files to JupyterLab
                • Uploading Remote Files to JupyterLab
              • Downloading a File from JupyterLab to a Local Path
          • Local IDE
            • Operation Process in a Local IDE
            • Local IDE (PyCharm)
              • Connecting to a Notebook Instance Through PyCharm Toolkit
                • PyCharm Toolkit
                • Downloading and Installing PyCharm Toolkit
                • Connecting to a Notebook Instance Through PyCharm Toolkit
              • Manually Connecting to a Notebook Instance Through PyCharm
              • Submitting a Training Job Using PyCharm Toolkit
                • Submitting a Training Job (New Version)
                • Stopping a Training Job
                • Viewing Training Logs
              • Uploading Data to a Notebook Instance Using PyCharm
            • Local IDE (VS Code)
              • Connecting to a Notebook Instance Through VS Code
              • Installing VS Code
              • Connecting to a Notebook Instance Through VS Code Toolkit
              • Manually Connecting to a Notebook Instance Through VS Code
              • Remotely Debugging in VS Code
              • Uploading and Downloading Files in VS Code
            • Local IDE (Accessed Using SSH)
          • ModelArts CLI Command Reference
            • ModelArts CLI Overview
            • (Optional) Installing ma-cli Locally
            • Autocompletion for ma-cli Commands
            • ma-cli Authentication
            • ma-cli Image Building Command
              • ma-cli Image Building Command
              • Obtaining an Image Creation Template
              • Loading an Image Creation Template
              • Obtaining Registered ModelArts Images
              • Creating an Image in ModelArts Notebook
              • Obtaining Image Creation Caches in ModelArts Notebook
              • Clearing Image Creation Caches in ModelArts Notebook
              • Registering SWR Images with ModelArts Image Management
              • Deregistering a Registered Image from ModelArts Image Management
              • Debugging an SWR Image on an ECS
            • Using the ma-cli ma-job Command to Submit a ModelArts Training Job
              • ma-cli ma-job Command Overview
              • Obtaining ModelArts Training Jobs
              • Submitting a ModelArts Training Job
              • Obtaining ModelArts Training Job Logs
              • Obtaining ModelArts Training Job Events
              • Obtaining ModelArts AI Engines for Training
              • Obtaining ModelArts Resource Specifications for Training
              • Stopping a ModelArts Training Job
            • Using the ma-cli dli-job Command to Submit a DLI Spark Job
              • Overview
              • Querying DLI Spark Jobs
              • Submitting a DLI Spark Job
              • Querying DLI Spark Run Logs
              • Querying DLI Queues
              • Obtaining DLI Group Resources
              • Uploading Local Files or OBS Files to a DLI Group
              • Stopping a DLI Spark Job
            • Using ma-cli to Copy OBS Data
        • Model Development (To Be Offline)
          • Introduction to Model Development
          • Preparing Data
          • Preparing Algorithms
            • Introduction to Algorithm Preparation
            • Using a Preset Image (Custom Script)
              • Overview
              • Developing a Custom Script
              • Creating an Algorithm
            • Using Custom Images
            • Viewing Algorithm Details
            • Searching for an Algorithm
            • Deleting an Algorithm
          • Performing a Training
            • Creating a Training Job
            • Viewing Training Job Details
            • Viewing Training Job Events
            • Training Job Logs
              • Introduction to Training Job Logs
              • Common Logs
              • Viewing Training Job Logs
              • Locating Faults by Analyzing Training Logs
            • Cloud Shell
              • Logging In to a Training Container Using Cloud Shell
              • Keeping a Training Job Running
              • Preventing Cloud Shell Session from Disconnection
            • Viewing the Resource Usage of a Training Job
            • Evaluation Results
            • Viewing Training Tags
            • Viewing Fault Recovery Details
            • Viewing Environment Variables of a Training Container
            • Stopping, Rebuilding, or Searching for a Training Job
            • Releasing Training Job Resources
          • Advanced Training Operations
            • Automatic Recovery from a Training Fault
              • Training Fault Tolerance Check
              • Unconditional Auto Restart
            • Resumable Training and Incremental Training
            • Detecting Training Job Suspension
            • Priority of a Training Job
            • Permission to Set the Highest Job Priority
          • Distributed Training
            • Distributed Training Functions
            • Single-Node Multi-Card Training Using DataParallel
            • Multi-Node Multi-Card Training Using DistributedDataParallel
            • Distributed Debugging Adaptation and Code Example
            • Sample Code of Distributed Training
            • Example of Starting PyTorch DDP Training Based on a Training Job
          • Automatic Model Tuning (AutoSearch)
            • Introduction to Hyperparameter Search
            • Search Algorithm
              • Bayesian Optimization (SMAC)
              • TPE Algorithm
              • Simulated Annealing Algorithm
            • Creating a Hyperparameter Search Job
        • Image Management
          • Image Management
          • Using a Preset Image
            • Unified Mirroring
            • Images Preset in Notebook
              • Notebook Base Images
              • Notebook Base Image List
              • PyTorch (x86)-powered Notebook Base Image
              • Tensorflow (x86)-powered Notebook Base Image
              • MindSpore (x86)-powered Notebook Base Image
              • Custom Dedicated Image (x86)-powered Notebook Base Image
            • Training Base Image
              • Available Training Base Images
              • Training Base Image (PyTorch)
              • Training Base Image (TensorFlow)
              • Training Base Image (Horovod)
              • Training Base Image (MPI)
              • Starting Training with a Preset Image
                • PyTorch
                • TensorFlow
                • Horovod/MPI/MindSpore-GPU
            • Inference Base Images
              • Available Inference Base Images
              • TensorFlow (CPU/GPU)-powered Inference Base Images
              • PyTorch (CPU/GPU)-powered Inference Base Images
              • MindSpore (CPU/GPU)-powered Inference Base Images
          • Using Custom Images in Notebook Instances
            • Constraints on Custom Images in Notebook Instances
            • Registering an Image in ModelArts
            • Creating a Custom Image
            • Saving a Notebook Instance as a Custom Image
              • Saving a Notebook Environment Image
              • Using a Custom Image to Create a Notebook Instance
            • Creating and Using a Custom Image in Notebook
              • Application Scenarios and Process
              • Step 1 Creating a Custom Image
              • Step 2 Registering a New Image
              • Step 3 Using a New Image to Create a Development Environment
            • Creating a Custom Image on an ECS and Using It in Notebook
              • Application Scenarios and Process
              • Step 1 Preparing a Docker Server and Configuring an Environment
              • Step 2 Creating a Custom Image
              • Step 3 Registering a New Image
              • Step 5 Creating and Starting a Development Environment
            • Troubleshooting for Custom Images in Notebook Instances
          • Using a Custom Image to Train Models (Model Training)
            • Overview
            • Example: Creating a Custom Image for Training
              • Example: Creating a Custom Image for Training (PyTorch + CPU/GPU)
              • Example: Creating a Custom Image for Training (MPI + CPU/GPU)
              • Example: Creating a Custom Image for Training (Horovod-PyTorch and GPUs)
              • Example: Creating a Custom Image for Training (MindSpore and GPUs)
              • Example: Creating a Custom Image for Training (TensorFlow and GPUs)
            • Preparing a Training Image
              • Specifications for Custom Images for Training Jobs
              • Migrating an Image to ModelArts Training
              • Using a Base Image to Create a Training Image
              • Installing MLNX_OFED in a Container Image
            • Creating an Algorithm Using a Custom Image
            • Using a Custom Image to Create a CPU- or GPU-based Training Job
            • Troubleshooting Process
          • Using a Custom Image to Create AI applications for Inference Deployment
            • Custom Image Specifications for Creating AI Applications
            • Creating a Custom Image and Using It to Create an AI Application
          • FAQs
            • How Can I Log In to SWR and Upload Images to It?
            • How Do I Configure Environment Variables for an Image?
            • How Do I Use Docker to Start an Image Saved Using a Notebook Instance?
            • How Do I Configure a Conda Source in a Notebook Development Environment?
            • What Are Supported Software Versions for a Custom Image?
            • Why Does an Error Occur When I Try to Save an Image That Is Reported as Larger Than 35 GB, Even Though It Is Only Displayed as 13 GB in SWR?
            • How Do I Ensure That an Image Can be Saved Correctly Without Being Too Large?
            • How Do I Reduce the Size of an Image Created Locally or on ECS?
            • Will an Image Be Smaller If I Uninstall and Repackage It or Simply Delete Existing Datasets from the Image?
            • What Do I Do If Error "ModelArts.6787" Is Reported When I Register an Image on ModelArts?
          • Modification History
        • Model Inference (To Be Offline)
          • Introduction to Inference
          • Managing AI Applications
            • Introduction to AI Application Management
            • Creating an AI Application
              • Importing a Meta Model from a Training Job
              • Importing a Meta Model from a Template
              • Importing a Meta Model from OBS
              • Importing a Meta Model from a Container Image
            • Viewing the AI Application List
            • Viewing Details About an AI Application
            • Managing AI Application Versions
            • Viewing Events of an AI Application
          • Deploying an AI Application as a Service
            • Deploying AI Applications as Real-Time Services
              • Deploying as a Real-Time Service
              • Viewing Service Details
              • Testing the Deployed Service
              • Accessing Real-Time Services
                • Accessing a Real-Time Service
                • Authentication Mode
                  • Access Authenticated Using a Token
                  • Access Authenticated Using an AK/SK
                  • Access Authenticated Using an Application
                • Access Mode
                  • Accessing a Real-Time Service (Public Network Channel)
                  • Accessing a Real-Time Service (VPC High-Speed Channel)
                • Accessing a Real-Time Service Through WebSocket
                • Server-Sent Events
              • Integrating a Real-Time Service
              • Cloud Shell
            • Deploying AI Applications as Batch Services
              • Deploying as a Batch Service
              • Viewing Details About a Batch Service
              • Viewing the Batch Service Prediction Result
            • Upgrading a Service
            • Starting, Stopping, Deleting, or Restarting a Service
            • Viewing Service Events
          • Inference Specifications
            • Model Package Specifications
              • Introduction to Model Package Specifications
              • Specifications for Editing a Model Configuration File
              • Specifications for Writing Model Inference Code
            • Model Templates
              • Introduction to Model Templates
              • Templates
                • TensorFlow-based Image Classification Template
                • TensorFlow-py27 General Template
                • TensorFlow-py36 General Template
                • MXNet-py27 General Template
                • MXNet-py36 General Template
                • PyTorch-py27 General Template
                • PyTorch-py36 General Template
                • Caffe-CPU-py27 General Template
                • Caffe-GPU-py27 General Template
                • Caffe-CPU-py36 General Template
                • Caffe-GPU-py36 General Template
                • Arm-Ascend Template
              • Input and Output Modes
                • Built-in Object Detection Mode
                • Built-in Image Processing Mode
                • Built-in Predictive Analytics Mode
                • Undefined Mode
            • Examples of Custom Scripts
              • TensorFlow
              • TensorFlow 2.1
              • PyTorch
              • Caffe
              • XGBoost
              • PySpark
              • Scikit-learn
          • ModelArts Monitoring on Cloud Eye
            • ModelArts Metrics
            • Setting Alarm Rules
            • Viewing Monitoring Metrics
        • Resource Management
          • Resource Pool
          • Elastic Cluster
            • Comprehensive Upgrades to ModelArts Resource Pool Management Functions
            • Creating a Resource Pool
            • Viewing Details About a Resource Pool
            • Resizing a Resource Pool
            • Setting a Renewal Policy
            • Modifying the Expiration Policy
            • Migrating the Workspace
            • Changing Job Types Supported by a Resource Pool
            • Upgrading a Resource Pool Driver
            • Deleting a Resource Pool
            • Abnormal Status of a Dedicated Resource Pool
            • ModelArts Network
            • ModelArts Nodes
          • Audit Logs
            • Key Operations Recorded by CTS
            • Viewing Audit Logs
          • Monitoring Resources
            • Overview
            • Using Grafana to View AOM Monitoring Metrics
              • Procedure
              • Installing and Configuring Grafana
                • Installing and Configuring Grafana on Windows
                • Installing and Configuring Grafana on Linux
                • Installing and Configuring Grafana on a Notebook Instance
              • Configuring a Grafana Data Source
              • Using Grafana to Configure Dashboards and View Metric Data
            • Viewing All ModelArts Monitoring Metrics on the AOM Console
        • Data Preparation and Analytics
          • Introduction to Data Preparation
          • Getting Started
          • Creating a Dataset
            • Dataset Overview
            • Creating a Dataset
            • Modifying a Dataset
          • Importing Data
            • Introduction to Data Importing
            • Importing Data from OBS
              • Introduction to Importing Data from OBS
              • Importing Data from an OBS Path
              • Specifications for Importing Data from an OBS Directory
              • Importing a Manifest File
              • Specifications for Importing a Manifest File
            • Importing Data from DLI
            • Importing Data from MRS
            • Importing Data from DWS
            • Importing Data from Local Files
          • Data Analysis and Preview
            • Auto Grouping
            • Data Filtering
            • Data Feature Analysis
          • Labeling Data
          • Publishing Data
            • Introduction to Data Publishing
            • Publishing a Data Version
            • Managing Data Versions
          • Exporting Data
            • Introduction to Exporting Data
            • Exporting Data to a New Dataset
            • Exporting Data to OBS
        • Data Labeling (To Be Offline)
          • Introduction to Data Labeling
          • Manual Labeling
            • Creating a Labeling Job
            • Image Labeling
              • Image Classification
              • Object Detection
              • Image Segmentation
            • Text Labeling
              • Text Classification
              • Named Entity Recognition
              • Text Triplet
            • Audio Labeling
              • Sound Classification
              • Speech Labeling
              • Speech Paragraph Labeling
            • Video Labeling
            • Viewing Labeling Jobs
              • Viewing My Created Labeling Jobs
              • Viewing My Participated Labeling Jobs
          • Auto Labeling
            • Creating an Auto Labeling Job
            • Confirming Hard Examples
          • Team Labeling
            • Team Labeling Overview
            • Creating and Managing Teams
              • Managing Teams
              • Managing Team Members
            • Creating a Team Labeling Job
            • Logging In to ModelArts
            • Starting a Team Labeling Job
            • Reviewing Team Labeling Results
            • Accepting Team Labeling Results