Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Centro de ayuda/ ModelArts/ Implementación de inferencia/ Introducción a la Inferencia
Actualización más reciente 2024-06-25 GMT+08:00

Introducción a la Inferencia

Después de desarrollar un modelo de IA, puede usarlo para crear una aplicación de IA y desplegar rápidamente la aplicación como un servicio de inferencia. Las capacidades de inferencia de IA se pueden integrar en su plataforma de TI llamando a las API.

Figura 1 Inferencia
  • Desarrollar un modelo: Los modelos se pueden desarrollar en el ModelArts o en su entorno de desarrollo local. Se debe cargar un modelo desarrollado localmente en Huawei Cloud OBS.
  • Crear una aplicación de IA: Importe el archivo de modelo y el archivo de inferencia al repositorio de modelos ModelArts y adminístrelos por versión. Utilice estos archivos para crear una aplicación de IA ejecutable.
  • Implementar como servicio: implemente la aplicación de IA como instancia de contenedor en el fondo de recursos y registre las API de inferencia a las que se puede acceder externamente.
  • Realizar inferencia: Agregue la función de llamar a las API de inferencia a su aplicación para integrar la inferencia de IA en el proceso de servicio.

Implementación de una aplicación de IA como servicio

Después de crear una aplicación de IA, puede implementarla como un servicio en la página Deploy. ModelArts admite los siguientes tipos de implementación:
  • Servicio en tiempo real

    Implemente una aplicación de IA como servicio web con interfaz de usuario de prueba en tiempo real y monitorización compatible.

  • Servicio por lotes

    Implemente una aplicación de IA como un servicio por lotes que realiza inferencias en datos por lotes y se detiene automáticamente una vez que se completa el procesamiento de datos.