Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Actualización más reciente 2024-09-25 GMT+08:00

Introducción a las especificaciones del paquete modelo

Al crear una aplicación de IA en la página de gestión de aplicaciones de IA, asegúrese de que cualquier metamodelo importado de OBS cumpla con ciertas especificaciones.

El paquete de modelo debe contener el directorio model. El directorio model almacena el archivo de modelo, el archivo de configuración de modelo y el archivo de código de inferencia de modelo.

  • Model files: Los requisitos para los archivos de modelo varían según la estructura del paquete del modelo. Para más detalles, véase Ejemplo de paquete de modelo.
  • Model configuration file: El archivo de configuración del modelo debe estar disponible y su nombre debe ser config.json. Solo hay que existirse un archivo de configuración del modelo. Para obtener más información sobre cómo editar un archivo de configuración de modelo, véase Especificaciones para editar un archivo de configuración de modelo.
  • Model inference code file: Obligatorio. El nombre del archivo debe ser customize_service.py de forma consistente. Solo hay que existirse un archivo de código de inferencia de modelo. Para obtener más información sobre cómo editar el código de inferencia de modelo, véase Especificaciones para escribir el código de inferencia de modelo.
    • El archivo .py del que customize_service.py depende puede almacenarse directamente en el directorio model. Utilice un modo de importación relativa para importar el paquete personalizado.
    • Los otros archivos de los que depende customize_service.py se pueden almacenar en el directorio model. Debe utilizar rutas de acceso absolutas para tener acceso a estos archivos. Para obtener más detalles, véase Obtención de una ruta absoluta.

ModelArts proporciona ejemplos y código de ejemplo para varios motores. Puede compilar los archivos de configuración y el código de inferencia consultando Ejemplos de ModelArts. ModelArts también proporciona ejemplos de script personalizados de motores de IA comunes. Para obtener más información, véase Ejemplos de scripts personalizados.

Si encuentra algún problema al importar un metamodelo, póngase en contacto con el soporte técnico de Huawei Cloud.

Ejemplo de paquete de modelo

  • Estructura del paquete de modelo basado en TensorFlow

    Al publicar el modelo, solo necesita especificar el directorio ocr.

    OBS bucket/directory name
    |── ocr
    |   ├── model (Mandatory) Name of a fixed subdirectory, which is used to store model-related files
    |   │   ├── <<Custom Python package>> (Optional) User's Python package, which can be directly referenced in model inference code
    |   │   ├── saved_model.pb (Mandatory) Protocol buffer file, which contains the diagram description of the model
    |   │   ├── variables Name of a fixed sub-directory, which contains the weight and deviation rate of the model. It is mandatory for the main file of the *.pb model.
    |   │   │   ├── variables.index Mandatory
    |   │   │   ├── variables.data-00000-of-00001 Mandatory
    |   │   ├──config.json (Mandatory) Model configuration file. The file name is fixed to config.json. Only one model configuration file is supported.
    |   │   ├──customize_service.py (Mandatory) Model inference code. The file name is fixed to customize_service.py. Only one model inference code file exists.
    The files on which customize_service.py depends can be directly stored in the model directory.
  • Estructura del paquete de modelo basado en PyTorch

    Al publicar el modelo, solo necesita especificar el directorio resnet.

    OBS bucket/directory name
    |── resnet
    |   ├── model (Mandatory) Name of a fixed subdirectory, which is used to store model-related files
    |   │  ├── <<Custom Python package>> (Optional) User's Python package, which can be directly referenced in model inference code
    |   │  ├── resnet50.pth (Mandatory) PyTorch model file, which contains variable and weight information and is saved as state_dict
    |   │  ├──config.json (Mandatory) Model configuration file. The file name is fixed to config.json. Only one model configuration file is supported.
    |   │  ├──customize_service.py (Mandatory) Model inference code. The file name is fixed to customize_service.py. Only one model inference code file exists. The files on which customize_service.py depends can be directly stored in the model directory.
  • La estructura de un paquete de modelos personalizados depende del motor de IA de la imagen personalizada. Por ejemplo, si TensorFlow es el motor de IA de la imagen personalizada, el paquete de modelo utiliza la estructura de TensorFlow.