Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Centro de ayuda/ MapReduce Service/ Guía del usuario/ Referencia de alarma (aplicable a MRS 3.x)/ ALM-14019 El uso de memoria no heap de DataNode supera el umbral
Actualización más reciente 2023-11-20 GMT+08:00

ALM-14019 El uso de memoria no heap de DataNode supera el umbral

Descripción

El sistema comprueba el uso de memoria no heap del HDFS DataNode cada 30 segundos y compara el uso real con el umbral. El uso de memoria no heap del HDFS DataNode tiene un umbral predeterminado. Esta alarma se genera cuando el uso de memoria no heap del HDFS DataNode excede el umbral.

Los usuarios pueden elegir O&M > Alarm > Thresholds> Name of the desired cluster > HDFS para cambiar el umbral.

Esta alarma se borra cuando el uso de memoria no heap del DataNode HDFS es menor o igual que el umbral.

Atributo

ID de alarma

Gravedad de la alarma

Borrado automáticamente

14019

Importante

Parámetros

Nombre

Significado

Source

Especifica el clúster para el que se genera la alarma.

ServiceName

Especifica el servicio para el que se genera la alarma.

RoleName

Especifica el rol para el que se genera la alarma.

HostName

Especifica el host para el que se genera la alarma.

Trigger condition

Especifica el umbral que activa la alarma. Si el valor del indicador actual excede este umbral, se genera la alarma.

Impacto en el sistema

Si el uso de memoria del HDFS DataNode es demasiado alto, el rendimiento de lectura/escritura de datos de HDFS se verá afectado.

Causas posibles

La memoria no heap del HDFS DataNode es insuficiente.

Procedimiento

Eliminar archivos innecesarios.

  1. Inicie sesión en el cliente HDFS como usuario root. Ejecute el comando cd para ir al directorio de instalación del cliente y ejecute el comando source bigdata_env.

    Si el clúster adopta el modo de seguridad, realice la autenticación de seguridad.

    Ejecute el comando kinit hdfs e introduzca la contraseña como se le solicite. Obtenga la contraseña del administrador.

  2. Ejecute el comando hdfs dfs -rm -r file or directory path para eliminar archivos innecesarios.
  3. Verifique si la alarma se ha borrado.

    • De ser así, no se requiere ninguna acción adicional.
    • Si no, vaya a 4.

Comprobar el uso y la configuración de la memoria que no es de almacenamiento dinámico de la JVM de DataNode.

  1. En el portal del FusionInsight Manager, elija Cluster > Name of the desired cluster > Services > HDFS.
  2. En el área Basic Information, haga clic en NameNode(Active). Se muestra el HDFS WebUI.

    De forma predeterminada, el usuario admin no tiene los permisos para gestionar otros componentes. Si la página no se puede abrir o el contenido mostrado está incompleto al acceder a la interfaz de usuario nativa de un componente debido a la falta de permisos, puede crear manualmente un usuario con los permisos para gestionar ese componente.

  3. En HDFS WebUI, haga clic en la pestaña DataNodes para ver el número de bloques de todos los DataNodes que reportan alarmas.
  4. En el portal del FusionInsight Manager, elija Cluster > Name of the desired cluster > Services > HDFS > Configurations > All Configurations. En Search, escriba GC_OPTS para comprobar el parámetro de memoria no heap GC_OPTS de HDFS->DataNode.

Ajustar las configuraciones del sistema.

  1. Comprobar si la memoria está configurada correctamente en función del número de bloques en 6 y los parámetros de memoria configurados para DataNode en 7.

    • En caso afirmativo, vaya a 9.
    • Si no, vaya a 12.

    La asignación entre el número promedio de bloques de una instancia de DataNode y la memoria DataNode es la siguiente:

    • Si el número promedio de bloques de una instancia de DataNode llega a 2,000,000, los valores de referencia de los parámetros JVM del DataNode son los siguientes: -Xms6G -Xmx6G -XX:NewSize=512M -XX:MaxNewSize=512M
    • Si el número promedio de bloques de una instancia de DataNode llega a 5,000,000, los valores de referencia de los parámetros JVM del DataNode son los siguientes: -Xms12G -Xmx12G -XX:NewSize=1G -XX:MaxNewSize=1G

  2. Modifique el parámetro GC_OPTS del DataNode en función de la asignación entre el número de bloques y la memoria.
  3. Guarde la configuración y haga clic en Dashboard > More > Restart Service.
  4. Verifique si la alarma se ha borrado.

    • De ser así, no se requiere ninguna acción adicional.
    • Si no, vaya a 12.

Recopilar información de fallas.

  1. En el portal del FusionInsight Manager, elija O&M > Log > Download.
  2. Seleccione los siguientes servicios en el clúster requerido en Service.

    • ZooKeeper
    • HDFS

  3. Haga clic en en la esquina superior derecha y establezca Start Date y End Date para la recopilación de registros en 10 minutos antes y después del tiempo de generación de alarmas, respectivamente. A continuación, haga clic en Download.
  4. Póngase en contacto con el y envíe los registros recopilados.

Eliminación de alarmas

Después de rectificar la falla, el sistema borra automáticamente esta alarma.

Información relacionada

Ninguna