Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Centro de ayuda/ ModelArts/ Preguntas frecuentes/ Despliegue del servicio/ Servicios en tiempo real/ ¿Cómo puedo comprobar si un modelo causa un error cuando se ejecuta un servicio en tiempo real pero la predicción ha fallado?
Actualización más reciente 2023-10-09 GMT+08:00

¿Cómo puedo comprobar si un modelo causa un error cuando se ejecuta un servicio en tiempo real pero la predicción ha fallado?

Síntoma

Se utiliza un servicio en tiempo real en ejecución para la predicción. Después de que se inicia una solicitud de predicción, la respuesta recibida no cumple con la expectativa. Es difícil determinar si el problema es causado por el modelo.

Causa posible

Después de iniciar un servicio en tiempo real, se puede usar cualquiera de los siguientes métodos para la predicción:

  • Método 1: Realice la predicción en la pestaña Prediction de la página de detalles del servicio.
  • Método 2: Obtenga el URL de la API en la pestaña Usage Guides de la página de detalles del servicio y use cURL o Postman para la predicción.

Este problema puede producirse después de iniciar una solicitud de inferencia, independientemente de si se utiliza el método 1 o 2.

Finalmente se envía una solicitud de inferencia al modelo. El problema puede ser causado por un error ocurrido cuando el modelo procesó la solicitud de inferencia. Determine si el problema es causado por el modelo, lo que facilita la localización rápida de fallos.

Solución

Independientemente de si se usa el método 1 o 2, obtener la cabecera de respuesta y el cuerpo de la solicitud de inferencia.

  • Si se utiliza el método 1, obtener la respuesta a la solicitud de inferencia con la herramienta de desarrollador del navegador. Tome Google Chrome como ejemplo. Presione F12 para abrir la herramienta de desarrollo, haga clic en la ficha Network y luego en Predict. La respuesta a la solicitud de inferencia se muestra en la página de ficha Network.
    Figura 1 Respuesta a una solicitud de inferencia

    Busque la solicitud de inferencia en el panel Name. El URL de la solicitud de inferencia contiene la palabra clave /v1/infers. Vea el URL completo en el panel Headers. Obtenga la respuesta en Headers y Response.

  • Si se utiliza el método 2, obtener la cabecera y el cuerpo de la respuesta con diferentes herramientas. Por ejemplo, ejecute el comando cURL y use -I para obtener el encabezado de respuesta.

Si Server en el encabezado de respuesta obtenido es ModelArts y el cuerpo de la respuesta no contiene un código de error de ModelArts.XXXX, el modelo devuelve la respuesta. Si la respuesta no es la esperada, el problema es causado por el modelo.

Resumen y Sugerencias

Un modelo se puede importar desde una imagen de contenedor, OBS o AI Gallery. A continuación se proporcionan métodos comunes de solución de problemas para cada origen de modelo:

  • Para un modelo importado desde una imagen de contenedor, la causa del problema varía según la personalización de la imagen. Compruebe los logs del modelo para identificar la causa.
  • Para un modelo importado de OBS, si la respuesta que recibió contiene un código de error MR, por ejemplo, MR.0105, consulte los logs en la ficha Logs de la página de detalles del servicio en tiempo real para identificar la causa.
  • Para un modelo importado de AI Gallery, consulte al editor del modelo para conocer la causa.