自助服务

华为云自助服务为用户提供产品常见问题,自助工具,便捷服务入口,帮助您更加方便、快捷的使用云服务

    服务器内存使用分析工具 更多内容
  • 使用BulkLoad工具批量导入HBase数据

    使用BulkLoad工具批量导入HBase数据 操作场景 您可以按照自定义的方式,通过命令批量导入数据到HBase中并创建索引。 您可以在“configuration.xml”文件中定义多个方式来批量导入数据。导入数据时可不创建索引。 列的名称不能包含特殊字符,只能由字母、数字和下划线组成。

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量更新HBase数据

    使用BulkLoad工具批量更新HBase数据 操作场景 HBase BulkLoad工具支持根据RowKey的命名规则、RowKey的范围、字段名以及字段值进行批量更新数据。 使用BulkLoad工具批量更新HBase数据 执行如下命令更新从“row_start”到“row_s

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量删除HBase数据

    使用BulkLoad工具批量删除HBase数据 操作场景 BulkLoad工具支持根据rowkey的取值模式、范围、字段名、字段值对HBase数据做批量删除。 使用BulkLoad工具批量删除HBase数据 执行如下命令删除从“row_start”到“row_stop”的行,并且

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    使用Spark小文件合并工具说明 工具介绍 在Hadoop大规模生产集群中,由于HDFS的元数据都保存在NameNode的内存中,集群规模受制于NameNode单点的内存限制。如果HDFS中有大量的小文件,会消耗NameNode大量内存,还会大幅降低读写性能,延长作业运行时间。因

    来自:帮助中心

    查看更多 →

  • 使用Hive异常文件定位定界工具

    使用Hive异常文件定位定界工具 操作场景 由于某些异常操作或者磁盘损坏等原因导致Hive存储的数据文件出现异常,异常的数据文件会导致任务运行失败或者数据结果不正确。 该工具用于对常见的非文本类的数据文件格式进行异常排查。 该章节内容仅适用 MRS 3.2.0及之后版本。 操作步骤

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见支持的模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • AIGC工具tailor使用指导

    AIGC工具tailor使用指导 tailor简介 tailor是AIGC场景下用于模型转换(onnx到mindir)和性能分析的辅助工具,当前支持以下功能。 表1 功能总览 功能大类 具体功能 模型转换 固定shape转模型 动态shape传入指定档位转模型 支持fp32 支持AOE优化

    来自:帮助中心

    查看更多 →

  • 迁移过程使用工具概览

    rk和profiling采集工具集成到同一个工具中,极大简化了用户的使用流程。建议在迁移过程中使用Tailor工具替代下面列举的原始工具MS Convertor、Benchmark和msprof。使用指导详见链接。 模型转换工具 离线转换模型功能的工具MSLite Convert

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表1。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化,量化方法为per-group。 Step1 模型量化

    来自:帮助中心

    查看更多 →

  • Windows云服务器卡顿怎么办?

    Dump检查。在流量大的情况下,您还可以使用Wireshark抓取一段时间的网络包,分析流量使用情况。 问题处理:排查进程是否正常,并分类进行处理。 正常进程:优化程序,或变更 服务器 的配置。 异常进程:建议您手动关闭进程,您也可以借助第三方工具关闭进程。 问题定位步骤 在云服务器桌面的左下角,单击“开始

    来自:帮助中心

    查看更多 →

  • Windows云服务器卡顿怎么办?

    Windows云服务器卡顿怎么办? 当您发现云服务器的运行速度变慢或云服务器突然出现网络断开现象,则可能是由以下原因导致的: 云服务器使用共享资源型实例。 由于共享型资源实例是多实例共享CPU,当资源不足时,实例间可能出现CPU资源争抢,导致云服务器卡顿。 云服务器的带宽和CPU使用率过高。

    来自:帮助中心

    查看更多 →

  • Windows云服务器卡顿怎么办?

    Windows云服务器卡顿怎么办? 当您发现云服务器的运行速度变慢或云服务器突然出现网络断开现象,则可能是由以下原因导致的: 云服务器使用共享资源型实例。 由于共享型资源实例是多实例共享CPU,当资源不足时,实例间可能出现CPU资源争抢,导致云服务器卡顿。 云服务器的带宽和CPU使用率过高。

    来自:帮助中心

    查看更多 →

  • 检测Yarn内存使用情况

    检测Yarn内存使用情况 配置场景 针对所提交应用的内存使用无法预估的情况,可以通过修改服务端的配置项控制是否对内存使用进行检测。 如果不检测内存使用,Container会占用内存直到内存溢出;如果检测内存使用,当内存使用超过配置的内存大小时,相应的Container会被kill掉。

    来自:帮助中心

    查看更多 →

  • 检测Yarn内存使用情况

    检测Yarn内存使用情况 配置场景 针对所提交应用的内存使用无法预估的情况,可以通过修改服务端的配置项控制是否对内存使用进行检测。 若不检测内存使用,Container会占用内存直到内存溢出;若检测内存使用,当内存使用超过配置的内存大小时,相应的Container会被kill掉。

    来自:帮助中心

    查看更多 →

  • Windows操作系统云服务器磁盘空间清理

    Windows操作系统云服务器磁盘空间清理 操作场景 本节操作指导您完成Windows操作系统云服务器磁盘空间清理。 关闭虚拟内存 弹性云服务器匀出一部分磁盘空间来充当内存使用,当内存耗尽时,云服务器可以使用虚拟内存来缓解内存的紧张。但当内存使用率已经非常高时,频繁的内存与虚拟内存的切换会导致

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    使用Spark小文件合并工具说明 本章节仅适用于MRS 3.3.0及之后版本。 配置场景 小文件自动合并特性开启后,Spark将数据先写入临时目录,再去检测每个分区的平均文件大小是否小于16MB(默认值)。如果发现平均文件大小小于16MB,则认为分区下有小文件,Spark会启动一

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量导入HBase数据

    使用BulkLoad工具批量导入HBase数据 操作场景 您可以按照自定义的方式,通过命令批量导入数据到HBase中并创建索引。 您可以在“configuration.xml”文件中定义多个方式来批量导入数据,导入数据时可不创建索引。 列的名称不能包含特殊字符,只能由字母、数字和下划线组成。

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量更新HBase数据

    使用BulkLoad工具批量更新HBase数据 操作场景 HBase BulkLoad工具支持根据RowKey的命名规则、RowKey的范围、字段名以及字段值进行批量更新数据。 使用BulkLoad工具批量更新HBase数据 执行如下命令更新从“row_start”到“row_s

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量删除HBase数据

    使用BulkLoad工具批量删除HBase数据 操作场景 BulkLoad工具支持根据rowkey的取值模式、范围、字段名、字段值对HBase做批量删除。 使用BulkLoad工具批量删除HBase数据 执行如下命令删除从“row_start”到“row_stop”的行,并且把输

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表1。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16 per-group/per-channel

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    使用llm-compressor工具量化 当前版本使用llm-compressor工具量化仅支持Deepseek-v2系列模型的W8A8量化。 本章节介绍如何在GPU的机器上使用开源量化工具llm-compressor量化模型权重,然后在NPU的机器上实现推理量化。 具体操作如下:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了