Consulta de una lista de trabajos
Función
Esta API se utiliza para consultar la lista de trabajos en un clúster MRS especificado.
Restricciones
Ninguna
Depuración
Puede depurar esta API a través de la autenticación automática en API Explorer. API Explorer puede generar automáticamente código SDK de ejemplo y proporcionar la depuración de código SDK de ejemplo.
URI
- Formato
- Descripción de parámetro
Tabla 1 Parámetros de URI Parámetro
Obligatorio
Tipo
Descripción
project_id
Sí
String
El ID del proyecto. Para obtener más información sobre cómo obtener el ID del proyecto, consulte Obtención de un ID de proyecto.
cluster_id
Sí
String
El ID del clúster. Para obtener más información acerca de cómo obtener el ID de clúster, consulte Obtención de un ID de clúster.
Tabla 2 Parámetros de Query Parámetro
Obligatorio
Tipo
Descripción
job_name
No
String
El nombre del trabajo. El valor puede contener de 1 a 128 caracteres. Solo se permiten letras, números, guiones (-) y guiones bajos (_).
job_id
No
String
El ID de trabajo. El valor puede contener de 1 a 64 caracteres. Solo se permiten letras, números y guiones (-).
user
No
String
El nombre de usuario. El valor puede contener de 1 a 32 caracteres. Solo se permiten letras, números, guiones (-), guiones bajos (_), y puntos (.) pero el valor no puede comenzar con un número.
job_type
No
String
El tipo de trabajo. Valores posibles:
- MapReduce
- SparkSubmit
- SparkSubmit: seleccione este valor cuando invoca a una API para consultar trabajos de SparkPython.
- HiveScript
- HiveSql
- DistCp: importa y exporta datos.
- SparkScript
- SparkSql
- Flink
job_state
No
String
El estado de ejecución del trabajo. Valores posibles:
- FAILED: indica que el trabajo no se puede ejecutar.
- KILLED: indica que el trabajo se ha terminado.
- New: indica que se ha creado el trabajo.
- NEW_SAVING: indica que el trabajo se ha creado y se está guardando.
- SUBMITTED: indica que se ha enviado el trabajo.
- ACCEPTED: indica que el trabajo es aceptado.
- RUNNING: indica que el trabajo se está ejecutando.
- FINISHED: indica que el trabajo se ha completado.
job_result
No
String
El resultado de la ejecución del trabajo. Valores posibles:
- FAILED: indica que el trabajo no se puede ejecutar.
- KILLED: indica que el trabajo se termina manualmente durante la ejecución.
- UNDEFINED: indica que el trabajo se está ejecutando.
- SUCCEEDED: indica que el trabajo se ha ejecutado correctamente.
queue
No
String
El tipo de cola de recursos utilizada por un trabajo. El valor puede contener de 1 a 64 caracteres. Solo se permiten letras, números y guiones (-).
limit
No
String
El número de registros mostrados en cada página del resultado devuelto. El valor predeterminado es 10.
offset
No
String
El desplazamiento predeterminado a partir del cual se empieza a consultar la lista de trabajos es 1.
sort_by
No
String
El modo de clasificación de los resultados devueltos. El valor predeterminado es desc. Valores posibles:
- asc: indica que los resultados devueltos se clasifican en orden ascendente.
- desc: indica que los resultados devueltos se clasifican en orden descendente.
submitted_time_begin
No
Long
La marca de tiempo UTC después de la cual se envía un trabajo, en milisegundos, por ejemplo, 1562032041362.
submitted_time_end
No
Long
La marca de tiempo UTC antes de la que se envía un trabajo, en milisegundos, por ejemplo, 1562032041362.
Parámetros de solicitud
Ninguna
Parámetros de respuesta
Código de estado: 202
Parámetro |
Tipo |
Descripción |
---|---|---|
total_record |
Integer |
Número total de registros. |
job_list |
Array of JobQueryBean objects |
La lista de trabajos. Para obtener más información sobre los parámetros, consulte Tabla 4. |
Parámetro |
Tipo |
Descripción |
---|---|---|
job_id |
String |
El ID de trabajo. |
user |
String |
El nombre del usuario que envía un trabajo. |
job_name |
String |
El nombre del trabajo. |
job_result |
String |
El resultado final de un trabajo. Valores posibles:
|
job_state |
String |
El estado de ejecución del trabajo. Valores posibles:
|
job_progress |
Float |
El progreso de la ejecución del trabajo. |
job_type |
String |
El tipo de trabajo. Valores posibles:
|
started_time |
Long |
La hora en que un trabajo comienza a ejecutarse, en milisegundos. |
submitted_time |
Long |
La hora en que se envía un trabajo, en milisegundos. |
finished_time |
Long |
La hora en que se completa la ejecución de un trabajo, en milisegundos. |
elapsed_time |
Long |
Duración de la ejecución del trabajo, en milisegundos. |
arguments |
String |
Los parámetros de ejecución. |
properties |
String |
El parámetro de configuración, que se utiliza para configurar los parámetros de -d. El valor puede contener un máximo de 2,048 caracteres. No se permiten caracteres especiales (;|&>'<$!\\). Este parámetro se puede dejar en blanco. |
launcher_id |
String |
El ID de trabajo real. |
app_id |
String |
El ID de trabajo real. |
tracking_url |
String |
La URL para acceder a los registros. Actualmente, solo los trabajos de SparkSubmit admiten este parámetro. Este parámetro accede a la interfaz de usuario web de Yarn a través del EIP enlazado al clúster. Si el EIP no está vinculado del clúster en la consola de VPC, los datos de servicio de MRS no se actualizan de manera oportuna y el acceso falla. En este caso, puede vincular el EIP al clúster de nuevo para rectificar el error. |
queue |
String |
El tipo de cola de recursos utilizada por un trabajo. |
Código de estado: 500
Parámetro |
Tipo |
Descripción |
---|---|---|
error_code |
String |
El código de error. |
error_msg |
String |
El mensaje de error. |
Ejemplo de respuesta
Código de estado: 202
La consulta de una lista de trabajos se realiza correctamente.
{ "total_record" : 2, "job_list" : [ { "job_id" : "981374c1-85da-44ee-be32-edfb4fba776c", "user" : "xxxx", "job_name" : "SparkSubmitTset", "job_result" : "UNDEFINED", "job_state" : "ACCEPTED", "job_progress" : 0, "job_type" : "SparkSubmit", "started_time" : 0, "submitted_time" : 1564714763119, "finished_time" : 0, "elapsed_time" : 0, "queue" : "default", "arguments" : "[--class, --driver-memory, --executor-cores, --master, yarn-cluster, s3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar, dddd]", "launcher_id" : "application_1564622673393_0613", "properties" : { } }, { "job_id" : "c54c8aa0-c277-4f83-8acc-521d85cfa32b", "user" : "xxxx", "job_name" : "SparkSubmitTset2", "job_result" : "UNDEFINED", "job_state" : "ACCEPTED", "job_progress" : 0, "job_type" : "SparkSubmit", "started_time" : 0, "submitted_time" : 1564714020099, "finished_time" : 0, "elapsed_time" : 0, "queue" : "default", "arguments" : "[--conf, yujjsjhe, --driver-memory, yueujdjjd, --master,\nyarn-cluster,\ns3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar]", "launcher_id" : "application_1564622673393_0611", "properties" : { } } ] }
Código de estado: 500
Error al consultar una lista de trabajos.
{ "error_msg": "Failed to query the job list." "error_code" : "0166" }
Códigos de estado
Consulte Códigos de estado.
Códigos de error
Consulte Códigos de error.