Estos contenidos se han traducido de forma automática para su comodidad, pero Huawei Cloud no garantiza la exactitud de estos. Para consultar los contenidos originales, acceda a la versión en inglés.
Cómputo
Elastic Cloud Server
Bare Metal Server
Auto Scaling
Image Management Service
Dedicated Host
FunctionGraph
Cloud Phone Host
Huawei Cloud EulerOS
Redes
Virtual Private Cloud
Elastic IP
Elastic Load Balance
NAT Gateway
Direct Connect
Virtual Private Network
VPC Endpoint
Cloud Connect
Enterprise Router
Enterprise Switch
Global Accelerator
Gestión y gobernanza
Cloud Eye
Identity and Access Management
Cloud Trace Service
Resource Formation Service
Tag Management Service
Log Tank Service
Config
Resource Access Manager
Simple Message Notification
Application Performance Management
Application Operations Management
Organizations
Optimization Advisor
Cloud Operations Center
Resource Governance Center
Migración
Server Migration Service
Object Storage Migration Service
Cloud Data Migration
Migration Center
Cloud Ecosystem
KooGallery
Partner Center
User Support
My Account
Billing Center
Cost Center
Resource Center
Enterprise Management
Service Tickets
HUAWEI CLOUD (International) FAQs
ICP Filing
Support Plans
My Credentials
Customer Operation Capabilities
Partner Support Plans
Professional Services
Análisis
MapReduce Service
Data Lake Insight
CloudTable Service
Cloud Search Service
Data Lake Visualization
Data Ingestion Service
GaussDB(DWS)
DataArts Studio
IoT
IoT Device Access
Otros
Product Pricing Details
System Permissions
Console Quick Start
Common FAQs
Instructions for Associating with a HUAWEI CLOUD Partner
Message Center
Seguridad y cumplimiento
Security Technologies and Applications
Web Application Firewall
Host Security Service
Cloud Firewall
SecMaster
Data Encryption Workshop
Database Security Service
Cloud Bastion Host
Data Security Center
Cloud Certificate Manager
Blockchain
Blockchain Service
Servicios multimedia
Media Processing Center
Video On Demand
Live
SparkRTC
Almacenamiento
Object Storage Service
Elastic Volume Service
Cloud Backup and Recovery
Storage Disaster Recovery Service
Scalable File Service
Volume Backup Service
Cloud Server Backup Service
Data Express Service
Dedicated Distributed Storage Service
Contenedores
Cloud Container Engine
SoftWare Repository for Container
Application Service Mesh
Ubiquitous Cloud Native Service
Cloud Container Instance
Bases de datos
Relational Database Service
Document Database Service
Data Admin Service
Data Replication Service
GeminiDB
GaussDB
Distributed Database Middleware
Database and Application Migration UGO
TaurusDB
Middleware
Distributed Cache Service
API Gateway
Distributed Message Service for Kafka
Distributed Message Service for RabbitMQ
Distributed Message Service for RocketMQ
Cloud Service Engine
EventGrid
Dedicated Cloud
Dedicated Computing Cluster
Aplicaciones empresariales
ROMA Connect
Message & SMS
Domain Name Service
Edge Data Center Management
Meeting
AI
Face Recognition Service
Graph Engine Service
Content Moderation
Image Recognition
Data Lake Factory
Optical Character Recognition
ModelArts
ImageSearch
Conversational Bot Service
Speech Interaction Service
Huawei HiLens
Developer Tools
SDK Developer Guide
API Request Signing Guide
Terraform
Koo Command Line Interface
Distribución de contenido y cómputo de borde
Content Delivery Network
Intelligent EdgeFabric
CloudPond
Soluciones
SAP Cloud
High Performance Computing
Servicios para desarrolladores
ServiceStage
CodeArts
CodeArts PerfTest
CodeArts Req
CodeArts Pipeline
CodeArts Build
CodeArts Deploy
CodeArts Artifact
CodeArts TestPlan
CodeArts Check
Cloud Application Engine
aPaaS MacroVerse
KooPhone
KooDrive
Centro de ayuda/ MapReduce Service/ Guía del usuario/ Referencia de alarma (aplicable a MRS 3.x)/ ALM-14020 Número de entradas en el directorio de HDFS supera el umbral

ALM-14020 Número de entradas en el directorio de HDFS supera el umbral

Actualización más reciente 2023-11-20 GMT+08:00

Descripción

El sistema obtiene el número de subarchivos y subdirectorios en un directorio especificado cada hora y comprueba si alcanza el porcentaje del umbral (el número máximo de subarchivos y subdirectorios en un directorio HDFS, el umbral para activar una alarma es de 90% de forma predeterminada). Si excede el porcentaje del umbral, se activa una alarma.

Cuando el número de subarchivos y subdirectorios en el directorio la alarma es menor que el porcentaje del umbral, la alarma se borra automáticamente. Cuando el conmutador de monitorización está desactivado, se borran las alarmas correspondientes a todos los directorios. Si se elimina un directorio de la lista de supervisión, se borran las alarmas correspondientes al directorio.

NOTA:
  • El parámetro dfs.namenode.fs-limits.max-directory-items especifica el número máximo de subarchivos y subdirectorios en el directorio HDFS. Su valor predeterminado es 1048576. Si el número de subarchivos y subdirectorios de un directorio excede el valor del parámetro, no se pueden crear subarchivos y subdirectorios en el directorio.
  • El parámetro dfs.namenode.directory-items.monitor especifica la lista de directorios que se van a supervisar. Su valor predeterminado es /tmp,/SparkJobHistory,/mr-history.
  • El parámetro dfs.namenode.directory-items.monitor.enabled se utiliza para activar o desactivar el conmutador de supervisión. Su valor predeterminado es true, lo que significa que el conmutador de monitorización está habilitado de forma predeterminada.

Atributo

ID de alarma

Gravedad de la alarma

Borrado automáticamente

14020

Importante

Parámetros

Nombre

Significado

Source

Especifica el clúster para el que se genera la alarma.

ServiceName

Especifica el servicio para el que se genera la alarma.

RoleName

Especifica el rol para el que se genera la alarma.

NameServiceName

Especifica el servicio NameService para el que se genera la alarma.

Directory

Especifica el directorio para el que se genera la alarma.

Trigger Condition

Especifica el umbral que activa la alarma. Si el valor del indicador actual excede este umbral, se genera la alarma.

Impacto en el sistema

Si el número de entradas en el directorio supervisado supera el 90% del umbral, se activa una alarma, pero se pueden agregar entradas al directorio. Una vez que se supera el umbral máximo, las entradas no se agregarán al directorio.

Causas posibles

El número de entradas en el directorio supervisado supera el 90% del umbral.

Procedimiento

Comprobar si existen archivos innecesarios en el sistema.

  1. Inicie sesión en el cliente HDFS como usuario root. Ejecute el comando cd para ir al directorio de instalación del cliente y ejecute el comando source bigdata_env para establecer las variables de entorno.

    Si el clúster está en modo de seguridad, se requiere autenticación de seguridad.

    Ejecute el comando kinit hdfs e introduzca la contraseña como se le solicite. Obtenga la contraseña del administrador.

  2. Ejecute el siguiente comando para comprobar si se pueden eliminar archivos y directorios en el directorio con la alarma:

    hdfs dfs -ls Directory with the alarm

    • En caso afirmativo, vaya a 3.
    • Si no, vaya a 5.

  3. Ejecute el siguiente comando para eliminar archivos innecesarios.

    hdfs dfs -rm -r -f File or directory path

    NOTA:

  4. Espere 1 hora y compruebe si la alarma está desactivada.

    • De ser así, no se requiere ninguna acción adicional.
    • Si no, vaya a 5.

Comprobar si el umbral está configurado correctamente.

  1. En el portal del FusionInsight Manager, elija Cluster > Name of the desired cluster > Services > HDFS > Configurations > All Configurations. Busque el parámetro dfs.namenode.fs-limits.max-directory-items y compruebe si el valor del parámetro es apropiado.

    • En caso afirmativo, vaya a 9.
    • Si no, vaya a 6.

  2. Aumente el valor del parámetro.
  3. Guarde la configuración y haga clic en Dashboard > More > Restart Service.
  4. Espere 1 hora y compruebe si la alarma está desactivada.

    • De ser así, no se requiere ninguna acción adicional.
    • Si no, vaya a 9.

Recopilar información de fallas.

  1. En el portal del FusionInsight Manager, elija O&M > Log > Download.
  2. Seleccione HDFS en el clúster requerido en el Service.
  3. Haga clic en en la esquina superior derecha y establezca Start Date y End Date para la recopilación de registros en 10 minutos antes y después del tiempo de generación de alarmas, respectivamente. A continuación, haga clic en Download.
  4. Póngase en contacto con el y envíe los registros recopilados.

Eliminación de alarmas

Después de rectificar la falla, el sistema borra automáticamente esta alarma.

Información relacionada

Ninguna

Utilizamos cookies para mejorar nuestro sitio y tu experiencia. Al continuar navegando en nuestro sitio, tú aceptas nuestra política de cookies. Descubre más

Comentarios

Comentarios

Comentarios

0/500

Seleccionar contenido

Enviar el contenido seleccionado con los comentarios