Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Actualización más reciente 2024-09-25 GMT+08:00

Plantilla general Caffe-GPU-py27

Introducción

Motor de IA: Caffe 1.0 basado en GPU; Entorno: Python 2.7; Modo de entrada y salida: No definido. Seleccione un modo de entrada y salida adecuado basado en la función del modelo o escenario de aplicación. Cuando utilice la plantilla para importar un modelo, seleccione el directorio model que contiene los archivos del modelo.

Entrada de plantilla

La entrada de la plantilla es el paquete de plantilla basado en Caffe almacenado en OBS. Asegúrese de que el directorio de OBS que utiliza y ModelArts están en la misma región. Para obtener detalles sobre los requisitos de paquetes de modelos, véase Ejemplo de paquete de modelo.

Modo de entrada y salida

Se puede sobrescribir Modo indefinido. Puede seleccionar otro modo de entrada y salida durante la creación del modelo.

Especificaciones del paquete de modelo

  • El paquete de modelo debe almacenarse en la carpeta model de OBS. Los archivos de modelo y el archivo de código de inferencia de modelo se almacenan en la carpeta model.
  • El archivo de código de inferencia del modelo es obligatorio. El nombre del archivo debe ser customize_service.py. Solo puede haber un archivo de código de inferencia en la carpeta model. Para obtener detalles sobre cómo escribir código de inferencia de modelo, véase Especificaciones para escribir el código de inferencia de modelo.
  • La estructura del paquete de plantilla importado utilizando la plantilla es la siguiente:
    model/
    │
    ├── Model file                 //(Mandatory) The model file format varies according to the engine. For details, see the model package example.
    ├── Custom Python package           //(Optional) User's Python package, which can be directly referenced in model inference code
    ├── customize_service.py  //(Mandatory) Model inference code file. The file name must be customize_service.py. Otherwise, the code is not considered as inference code.

Ejemplo de paquete de modelo

Estructura del paquete modelo basado en Caffe

Al publicar el modelo, solo necesita especificar el directorio model.
OBS bucket/directory name
|── model    (Mandatory) The folder must be named model and is used to store model-related files.
    |── <<Custom Python package>>      (Optional) User's Python package, which can be directly referenced in model inference code
    |── deploy.prototxt         (Mandatory) Caffe model file, which contains information such as the model network structure
    |── resnet.caffemodel       (Mandatory) Caffe model file, which contains variable and weight information
   |── customize_service.py    (Mandatory) Model inference code file. The file must be named customize_service.py. Only one inference code file exists. The .py file on which customize_service.py depends can be directly put in the model directory.