量化投资很少涉及机器学习 更多内容
  • 内容数据量化

    内容数据量化 SOW中搬迁资源量以及工作内容描述补充说明内容需数据量化。 父主题: SOW(项目工作说明书)注意事项

    来自:帮助中心

    查看更多 →

  • 模型评测

    模型评测 在机器学习中,通常需要使用一定的方法和标准,来评测一个模型的预测精确度。自动驾驶领域通常涉及目标检测、语义分割、车道线检测等类别,如识别车辆、行人、可行区域等对象。 评测脚本 评测任务 任务队列 评测对比 模型数据集支持 父主题: 训练服务

    来自:帮助中心

    查看更多 →

  • 轻量化模型卡片

    。 单击“保存”。 使用轻量化模型卡片 已添加“轻量化模型”卡片到角色桌面,并且已上传文件进行轻量化转换。如果您还没有进行轻量化转换,卡片内容为空。 您可以参见轻量化模型转换API,调用相应的API上传待轻量化转换的文件,查询轻量化转换的任务和下载轻量化文件。 在卡片左侧的列表中

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.906)

    来自:帮助中心

    查看更多 →

  • 使用SmoothQuant量化

    --per-token:激活值量化方法,如果指定则为per-token粒度量化,否则为per-tensor粒度量化。 --per-channel:权重量化方法,如果指定则为per-channel粒度量化,否则为per-tensor粒度量化。 启动smoothQuant量化服务。 参考Step6

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 使用llm-compressor工具量化 父主题: 主流开源大模型基于Server适配PyTorch NPU推理指导(6.3.909)

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910)

    来自:帮助中心

    查看更多 →

  • 使用SmoothQuant量化

    --per-token:激活值量化方法,如果指定则为per-token粒度量化,否则为per-tensor粒度量化。 --per-channel:权重量化方法,如果指定则为per-channel粒度量化,否则为per-tensor粒度量化。 启动smoothQuant量化服务。 参考步骤六 启

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.911)

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.908)

    来自:帮助中心

    查看更多 →

  • 使用SmoothQuant量化

    --per-token:激活值量化方法,如果指定则为per-token粒度量化,否则为per-tensor粒度量化。 --per-channel:权重量化方法,如果指定则为per-channel粒度量化,否则为per-tensor粒度量化。 启动smoothQuant量化服务。 参考部署推理服务,使用量化后权重部署AWQ量化服务。

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.910)

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 使用llm-compressor工具量化 父主题: 主流开源大模型基于Server适配PyTorch NPU推理指导(6.3.911)

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.911)

    来自:帮助中心

    查看更多 →

  • 使用SmoothQuant量化

    --per-token:激活值量化方法,如果指定则为per-token粒度量化,否则为per-tensor粒度量化。 --per-channel:权重量化方法,如果指定则为per-channel粒度量化,否则为per-tensor粒度量化。 启动smoothQuant量化服务。 参考Step6

    来自:帮助中心

    查看更多 →

  • 使用SmoothQuant量化

    --per-token:激活值量化方法,若指定则为per-token粒度量化,否则为per-tensor粒度量化。 --per-channel:权重量化方法,若指定则为per-channel粒度量化,否则为per-tensor粒度量化。 启动smoothQuant量化服务。 参考部署推理服务,使用量化后权重部署AWQ量化服务。

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)

    来自:帮助中心

    查看更多 →

  • 推理模型量化

    推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906)

    来自:帮助中心

    查看更多 →

  • 扩容过程中涉及数据迁移吗?

    扩容过程中涉及数据迁移吗? 扩容过程中不会迁移数据。 父主题: 实例规格变更问题

    来自:帮助中心

    查看更多 →

  • 主机迁移服务涉及的快照有哪些?

    主机迁移 服务涉及的快照有哪些? 主机迁移服务涉及的快照包括:割接快照、同步快照、克隆快照。 割接快照:迁移完成后,会对目的端磁盘制作割接快照,用于后续业务出现问题可以回滚。多次启动目的端会自动删除旧的割接快照,生成新的割接快照。 建议业务稳定运行一段时间后,再删除割接快照。 同步

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    kv-cache-int8量化支持的模型请参见表3。 per-tensor静态量化场景 在GPU机器上使用tensorRT 0.9.0版本工具进行模型量化,工具下载使用指导请参见https://github.com/NVIDIA/TensorRT-LLM/tree/v0.9.0。 量化脚本convert_checkpoint

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了