自助服务

华为云自助服务为用户提供产品常见问题,自助工具,便捷服务入口,帮助您更加方便、快捷的使用云服务

    数据仓库使用的工具工具 更多内容
  • 使用Spark小文件合并工具说明

    verage更大值;否则,执行合并后可能出现文件数变得更多情况。 合并过程中,会将原表数据放入回收站,再填入已合并数据。若在此过程中发生异常,根据工具提示,可将trash目录中数据通过hdfsmv命令恢复。 在HDFS router联邦场景下,如果表根路径与根路径“/

    来自:帮助中心

    查看更多 →

  • 使用全局二级索引工具

    使用全局二级索引工具 创建索引 索引信息查询 删除索引 修改索引状态 父主题: 使用全局二级索引

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    1、执行权重量化过程中,请保证使用GPU卡上没有其他进程,否则可能出现OOM; 2、若量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中配置环境变量),启动服务命令和启动非量化模型一致。

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下增量推理时延。支持AWQ量化模型列表请参见支持模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化,量化方法为per-group。

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下增量推理时延。支持AWQ量化模型列表请参见支持模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    1、执行权重量化过程中,请保证使用GPU卡上没有其他进程,否则可能出现OOM; 2、如果量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中配置环境变量),启动服务命令和启动非量化模型一致。

    来自:帮助中心

    查看更多 →

  • 开源sqoop-shell工具使用指导

    --xid 显示指定ID连接属性 -n,--name 显示指定名称连接属性 job -a,--all 显示所有作业信息 -j,--jid 显示指定ID作业信息 -n,--name 显示指定名称作业信息 submission -j,--jid 显示指定作业提交记录 -d,--detail

    来自:帮助中心

    查看更多 →

  • 性能可视化工具与性能分析工具

    对于GPU和NPU性能比对、NPU多次训练之间性能比对场景,昇腾提供了性能比对工具compare_tools,通过对训练耗时和内存占用比对分析,定位到具体劣化算子,帮助用户提升性能调优效率。工具将训练耗时拆分为计算、通信、调度三大维度,并针对计算和通信分别进行算子级别的比对;将训练占用总内存,拆分成算子级别的内存占用进行比对。

    来自:帮助中心

    查看更多 →

  • 开源sqoop-shell工具使用指导

    --xid 显示指定ID连接属性 -n,--name 显示指定名称连接属性 job -a,--all 显示所有作业信息 -j,--jid 显示指定ID作业信息 -n,--name 显示指定名称作业信息 submission -j,--jid 显示指定作业提交记录 -d,--detail

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量导入HBase数据

    column_num要和数据文件中数量对应。 family指定要和表列族名称对应。 仅当批量导入数据时创建二级索引才需配置以下参数,且索引类型首字母需要大写,例如type="String";以下片段中length="30"表示索引列“H_ID”列值不能超过30个字符:

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量更新HBase数据

    <tablename> 注意事项 批量更新会把满足条件行对应字段值替换为要更新值。 如果要更新字段上建有索引,批量更新是不允许。 如果不设置执行结果输出文件,默认是(/tmp/updatedata/表名)。 父主题: 增强HBase BulkLoad工具数据迁移能力

    来自:帮助中心

    查看更多 →

  • 使用BI工具连接DLI分析数据

    使用BI工具连接 DLI 分析数据 BI工具连接DLI方案概述 配置DBeaver连接DLI进行数据查询和分析 配置DBT连接DLI进行数据调度和分析 配置YongHong BI连接DLI进行数据查询和分析 配置PowerBI通过Kyuubi连接DLI进行数据查询和分析 配置Fine

    来自:帮助中心

    查看更多 →

  • 使用客户端工具连接DLI

    使用客户端工具连接DLI 使用JDBC提交SQL作业 使用Spark-submit提交Spark Jar作业 使用Livy提交Spark Jar作业

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    量化后模型权重;或者获取FP16/BF16模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布AWQ量化模型。 https://huggingface.co/models?sort=trending&search=QWEN+AWQ 方式二:使用AutoAWQ量化工具进行量化。

    来自:帮助中心

    查看更多 →

  • 第三方工具使用

    第三方工具使用 OBS使用指南 VLC使用指南

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下增量推理时延。支持AWQ量化模型列表请参见支持模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • AIGC工具tailor使用指导

    查询onnx模型输入信息。 # 查询onnx模型输入信息 t.get_model_input_info() 图1 查询onnx模型输入输出信息 查询onnx模型输出信息。 # 查询模型输出信息 t.get_model_output_info() 图2 查询onnx模型输出信息

    来自:帮助中心

    查看更多 →

  • 迁移过程使用工具概览

    型输出进行可对比误差分析(精度)。 模型自动调优工具 AOE(Ascend Optimization Engine)是一个昇腾设备上模型运行自动调优工具,作用是充分利用有限硬件资源,以满足算子和整网性能要求。在推理场景下使用,可以对于模型图和算子运行内置知识库进行自动优化,以提升模型的运行效率。

    来自:帮助中心

    查看更多 →

  • 使用Hive异常文件定位定界工具

    input-file 输入数据文件。 指定输入文件或者输入目录,输入目录中如果存在当前格式则解析,如果不存在则跳过。可以指定本地文件或者目录,也可以指定HDFS/OBS文件或者目录。 input-directory 输入数据文件所在目录,子文件多个情况下使用。 例如,执行以下命令排查or

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量删除HBase数据

    使用BulkLoad工具批量删除HBase数据 操作场景 BulkLoad工具支持根据rowkey取值模式、范围、字段名、字段值对HBase数据做批量删除。 使用BulkLoad工具批量删除HBase数据 执行如下命令删除从“row_start”到“row_stop”行,并且

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    verage更大值;否则,执行合并后可能出现文件数变得更多情况。 合并过程中,会将原表数据放入回收站,再填入已合并数据。如果在此过程中发生异常,根据工具提示,可将trash目录中数据通过hdfsmv命令恢复。 在HDFS router联邦场景下,如果表根路径与根路径“

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了