Prueba del servicio desplegado
Después de desplegar una aplicación de IA como servicio en tiempo real, puede depurar código o agregar archivos para probarlos en la pestaña Prediction. En función de la solicitud de entrada (texto o archivo JSON) definida por la aplicación de IA, el servicio se puede probar de cualquiera de las siguientes maneras:
- Predicción de texto de JSON: Si el tipo de entrada de la aplicación de IA del servicio desplegado es texto JSON, es decir, la entrada no contiene archivos, puede introducir el código JSON en la página de ficha Prediction para realizar pruebas de servicio.
- Predicción de archivo: Si el tipo de entrada de la aplicación de IA del servicio implementado es archivo, incluidas imágenes, audios y vídeos, puede agregar imágenes en la página de ficha Prediction para realizar pruebas de servicio.
- Si el tipo de entrada es imagen, el tamaño de una sola imagen debe ser inferior a 8 MB.
- El tamaño máximo del cuerpo de la solicitud para la predicción de texto de JSON es de 8 MB.
- Debido a la limitación de API Gateway, la duración de una sola predicción no puede superar los 40 s.
- Se admiten los siguientes tipos de imágenes: png, psd, jpg, jpeg, bmp, gif, webp, psd, svg y tiff.
- Si se utilizan variantes de Ascend durante el despliegue de servicio, las imágenes transparentes .png no se pueden predecir porque Ascend solo admite imágenes RGB-3.
- Esta función se utiliza para el comisionamiento. En la producción real, se recomienda invocar a las API. Puede seleccionar Acceso autenticado mediante un token, Acceso autenticado con una AK/SK o Acceso autenticado mediante una aplicación según el modo de autenticación.
Parámetros de entrada
Después de desplegar un servicio, obtenga los parámetros de entrada del servicio en la pestaña Usage Guides de la página de detalles del servicio.
Los parámetros de entrada que se muestran en la pestaña Usage Guides varían según la fuente de aplicación de IA que seleccione.
- Si su metamodelo proviene de ExeML o de un algoritmo integrado, ModelArts define los parámetros de entrada y salida. Para obtener más información, consulte la página de ficha Usage Guides. En la página de la ficha Prediction, introduzca el texto o archivo JSON correspondiente para las pruebas de servicio.
- Si utiliza un metamodelo personalizado con el código de inferencia y el archivo de configuración compilados por usted (Especificaciones para escribir el archivo de configuración del modelo), ModelArts solo visualiza los datos en la ficha Usage Guides. La siguiente figura muestra la asignación entre los parámetros de entrada que se muestran en la página de ficha Usage Guides y el archivo de configuración.
Figura 2 Asignación entre el archivo de configuración y las guías de uso
- Si el metamodelo se importa mediante una plantilla de modelo, los parámetros de entrada y salida varían con la plantilla. Para obtener más detalles, véase la descripción en Introducción a las plantillas de modelo.
Predicción de texto de JSON
- Inicie sesión en la consola de gestión ModelArts y elija Service Deployment > Real-Time Services.
- En la página Real-Time Services, haga clic en el nombre del servicio de destino. Se muestra la página de detalles del servicio. Ingrese el código de inferencia en la pestaña Prediction y haga clic en Predict para realizar la predicción.
Predicción de archivo
- Inicie sesión en la consola de gestión ModelArts y elija Service Deployment > Real-Time Services.
- En la página Real-Time Services, haga clic en el nombre del servicio de destino. Se muestra la página de detalles del servicio.On the Prediction tab page, click Upload and select a test file. After the file is uploaded successfully, click Predict to perform a prediction test. In Figura 3, the label, position coordinates, and confidence score are displayed.