代码托管 CodeHub

源自华为千亿级代码管理经验,基于Git,提供企业代码托管的全方位服务

了解详情

 
 

    git版本控制工具的使用 更多内容
  • 开源sqoop-shell工具使用指导

    --xid 显示指定ID连接属性 -n,--name 显示指定名称连接属性 job -a,--all 显示所有作业信息 -j,--jid 显示指定ID作业信息 -n,--name 显示指定名称作业信息 submission -j,--jid 显示指定作业提交记录 -d,--detail

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量导入HBase数据

    column_num要和数据文件中数量对应。 family指定要和表列族名称对应。 仅当批量导入数据时创建二级索引才需配置以下参数,且索引类型首字母需要大写,例如type="String";以下片段中length="30"表示索引列“H_ID”列值不能超过30个字符:

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量更新HBase数据

    <tablename> 注意事项 批量更新会把满足条件行对应字段值替换为要更新值。 如果要更新字段上建有索引,批量更新是不允许。 如果不设置执行结果输出文件,默认是(/tmp/updatedata/表名)。 父主题: 增强HBase BulkLoad工具数据迁移能力

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下增量推理时延。支持AWQ量化模型列表请参见支持模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    量化后模型权重;或者获取FP16/BF16模型权重之后,通过autoAWQ工具进行量化。 方式一:从开源社区下载发布AWQ量化模型。 https://huggingface.co/models?sort=trending&search=QWEN+AWQ 方式二:使用AutoAWQ量化工具进行量化。

    来自:帮助中心

    查看更多 →

  • AIGC工具tailor使用指导

    查询onnx模型输入信息。 # 查询onnx模型输入信息 t.get_model_input_info() 图1 查询onnx模型输入输出信息 查询onnx模型输出信息。 # 查询模型输出信息 t.get_model_output_info() 图2 查询onnx模型输出信息

    来自:帮助中心

    查看更多 →

  • 迁移过程使用工具概览

    型输出进行可对比误差分析(精度)。 模型自动调优工具 AOE(Ascend Optimization Engine)是一个昇腾设备上模型运行自动调优工具,作用是充分利用有限硬件资源,以满足算子和整网性能要求。在推理场景下使用,可以对于模型图和算子运行内置知识库进行自动优化,以提升模型的运行效率。

    来自:帮助中心

    查看更多 →

  • 使用BI工具连接DLI分析数据

    使用BI工具连接 DLI 分析数据 BI工具连接DLI方案概述 配置DBeaver连接DLI进行数据查询和分析 配置DBT连接DLI进行数据调度和分析 配置YongHong BI连接DLI进行数据查询和分析 配置Superset连接DLI进行数据查询和分析 配置PowerBI通过Kyuubi连接DLI进行数据查询和分析

    来自:帮助中心

    查看更多 →

  • 使用客户端工具连接DLI

    使用客户端工具连接DLI 使用JDBC提交SQL作业 使用Spark-submit提交Spark Jar作业 使用Livy提交Spark Jar作业

    来自:帮助中心

    查看更多 →

  • 第三方工具使用

    第三方工具使用 OBS使用指南 VLC使用指南

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量删除HBase数据

    使用BulkLoad工具批量删除HBase数据 操作场景 BulkLoad工具支持根据rowkey取值模式、范围、字段名、字段值对HBase数据做批量删除。 使用BulkLoad工具批量删除HBase数据 执行如下命令删除从“row_start”到“row_stop”行,并且

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    verage更大值;否则,执行合并后可能出现文件数变得更多情况。 合并过程中,会将原表数据放入回收站,再填入已合并数据。如果在此过程中发生异常,根据工具提示,可将trash目录中数据通过hdfsmv命令恢复。 在HDFS router联邦场景下,如果表根路径与根路径“

    来自:帮助中心

    查看更多 →

  • 使用Hive异常文件定位定界工具

    input-file 输入数据文件。 指定输入文件或者输入目录,输入目录中如果存在当前格式则解析,如果不存在则跳过。可以指定本地文件或者目录,也可以指定HDFS/OBS文件或者目录。 input-directory 输入数据文件所在目录,子文件多个情况下使用。 例如,执行以下命令排查or

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    verage更大值;否则,执行合并后可能出现文件数变得更多情况。 合并过程中,会将原表数据放入回收站,再填入已合并数据。若在此过程中发生异常,根据工具提示,可将trash目录中数据通过hdfsmv命令恢复。 在HDFS router联邦场景下,如果表根路径与根路径“/

    来自:帮助中心

    查看更多 →

  • 使用分配工具进行成本归集

    使用分配工具进行成本归集 概述 通过关联账号维度查看成本分配 通过企业项目维度查看成本分配 通过成本标签维度查看成本分配 使用成本分组(原成本单元)查看成本分配

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下增量推理时延。支持AWQ量化模型列表请参见支持模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    1、执行权重量化过程中,请保证使用GPU卡上没有其他进程,否则可能出现OOM; 2、若量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中配置环境变量),启动服务命令和启动非量化模型一致。

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    1、执行权重量化过程中,请保证使用GPU卡上没有其他进程,否则可能出现OOM; 2、如果量化Deepseek-v2-236b模型,大致需要10+小时。 使用量化模型 使用量化模型需要在NPU机器上运行。 启动vLLM前,请开启图模式(参考步骤六 启动推理服务中配置环境变量),启动服务命令和启动非量化模型一致。

    来自:帮助中心

    查看更多 →

  • msprobe精度分析工具使用指导

    人工固定(硬件随机差异) 工具内部对于随机控制,是通过设定统一随机种子进行随机性固定。但是由于硬件差异,会导致同样随机种子在不同硬件上生成随机数不同。具体示例如下: 由上图可见,torch.randn在GPU和NPU上固定随机种子后,仍然生成不同随机张量。 对于上述场景

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下增量推理时延。支持AWQ量化模型列表请参见支持模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化,量化方法为per-group。

    来自:帮助中心

    查看更多 →

  • 使用全局二级索引工具

    使用全局二级索引工具 创建索引 索引信息查询 删除索引 修改索引状态 父主题: 使用全局二级索引

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了