Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Actualización más reciente 2024-06-25 GMT+08:00

Plantilla general de TensorFlow-py36

Introducción

Motor AI: TensorFlow 1.8; Entorno: Python 3.6; Modo de entrada y salida: modo indefinido. Seleccione un modo de entrada y salida adecuado basado en la función del modelo o escenario de aplicación. Cuando utilice la plantilla para importar un modelo, seleccione el directorio de model que contiene los archivos de modelo.

Entrada de plantilla

La entrada de plantilla es el paquete de modelo basado en TensorFlow almacenado en OBS. Asegúrese de que el directorio OBS que utiliza y el ModelArts están en la misma región. Para obtener más información acerca de los requisitos del paquete modelo, consulte Ejemplo de paquete de modelo.

Modo de entrada y salida

Modo indefinido se puede sobrescribir. Puede seleccionar otro modo de entrada y salida durante la creación del modelo.

Especificaciones de paquete de modelo

  • El paquete de modelo debe almacenarse en la carpeta OBS denominada model. Los archivos de modelo y el archivo de código de inferencia de modelo se almacenan en la carpeta de model.
  • El archivo de código de inferencia de modelo es opcional. Si el archivo existe, el nombre del archivo debe ser customize_service.py. Solo puede existir un archivo de código de inferencia en la carpeta model. Para obtener más información sobre cómo compilar código de inferencia de modelo, consulte Especificaciones para la codificación de inferencia de modelo.
  • La estructura del paquete de modelo importado con la plantilla es la siguiente:
    model/
    │
    ├── Model file                 //(Mandatory) The model file format varies according to the engine. For details, see the model package example.
    ├── Custom Python package           //(Optional) User's Python package, which can be directly referenced in model inference code
    ├── customize_service.py  //(Optional) Model inference code file. The file name must be customize_service.py. Otherwise, the code is not considered as inference code.

Ejemplo de paquete de modelo

Estructura del paquete de modelo basado en TensorFlow

Al publicar el modelo, solo necesita especificar el directorio del model.

OBS bucket/directory name
|── model    (Mandatory) The folder must be named model and is used to store model-related files.
    ├── <<Custom Python package>>    (Optional) User's Python package, which can be directly referenced in model inference code
    ├── saved_model.pb        (Mandatory) Protocol buffer file, which contains the diagram description of the model
    ├── variables             Mandatory for the main file of the *.pb model. The folder must be named variables and contains the weight deviation of the model.
        ├── variables.index                   Mandatory
        ├── variables.data-00000-of-00001     Mandatory
    ├──customize_service.py   (Optional) Model inference code file. The file must be named customize_service.py. Only one inference code file exists. The .py file on which customize_service.py depends can be directly put in the model directory.