数据仓库服务 GaussDB(DWS)

 

GaussDB(DWS)是一款具备分析及混合负载能力的分布式数据库,支持x86和Kunpeng硬件架构,支持行存储与列存储,提供GB~PB级数据分析能力、多模分析和实时处理能力,用于数据仓库、数据集市、实时分析、实时决策和混合负载等场景,广泛应用于汽车、制造、零售、物流、互联网、金融、政府、电信等行业分析决策系统

 
 

    量化数据分析 更多内容
  • 使用JDBC接口提交数据分析任务

    使用JDBC接口提交数据分析任务 功能简介 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:

    来自:帮助中心

    查看更多 →

  • 应用场景

    API商业变现 当前面临的主要问题 API商业变现方式不够灵活。 缺少多维度的数据分析支撑。 API中心解决方案 API中心协同华为云云商店为API构建灵活多样的商业闭环路径,并提供API调用次数、API调用者等数据分析能力。 直接变现:API开发者完成API设计/开发/测试后,可以将AP

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见支持的模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化量化方法为per-group。

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见支持的模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见支持的模型列表和权重文件。

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    per-tensor+per-head静态量化场景 如需使用该场景量化方法,请自行准备kv-cache量化系数,格式和per-tensor静态量化所需的2. 抽取kv-cache量化系数生成的json文件一致,只需把每一层的量化系数修改为列表,列表的长度为kv的头数,列表中每一个值代表每一个kv头使用的量化系数。内容示例如下:

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见支持的模型列表和权重文件。

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    使用llm-compressor工具量化 当前版本使用llm-compressor工具量化仅支持Deepseek-v2系列模型的W8A8量化。 本章节介绍如何在GPU的机器上使用开源量化工具llm-compressor量化模型权重,然后在NPU的机器上实现推理量化。 具体操作如下: 开始之前,请确保安装了以下库:

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见表3。

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    使用llm-compressor工具量化 当前版本使用llm-compressor工具量化仅支持Deepseek-v2系列模型的W8A8量化。 本章节介绍如何在GPU的机器上使用开源量化工具llm-compressor量化模型权重,然后在NPU的机器上实现推理量化。 具体操作如下: 开始之前,请确保安装了以下库:

    来自:帮助中心

    查看更多 →

  • IoT数据分析服务系统权限

    IoT数据分析服务系统权限 下表 为IoT数据分析服务的所有系统权限 表1 IoT数据分析服务系统权限 系统角色/策略名称 描述 类别 Tenant Administrator 拥有该权限的用户拥有除IAM外,其他所有服务的所有执行权限。 系统角色 Tenant Guest 拥有

    来自:帮助中心

    查看更多 →

  • IoT数据分析服务权限配置示例

    IoT数据分析服务权限配置示例 iam授权的过程 默认情况下,管理员创建的IAM子用户没有任何权限,需要将其加入用户组,并给用户组授予策略和角色,才能使得用户组中的用户获得策略定义的权限。 前提条件: 需要管理员账号已开通IoTA数据分析服务,未开通则访问开通服务。 创建好子用户

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见支持的模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    per-tensor+per-head静态量化场景 如需使用该场景量化方法,请自行准备kv-cache量化系数,格式和per-tensor静态量化所需的2. 抽取kv-cache量化系数生成的json文件一致,只需把每一层的量化系数修改为列表,列表的长度为kv的头数,列表中每一个值代表每一个kv头使用的量化系数。内容示例如下:

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见支持的模型列表和权重文件。

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表1。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化量化方法为per-group。 Step1 模型量化

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见表1。

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见表3。

    来自:帮助中心

    查看更多 →

  • 配置矢量化读取ORC数据

    并且文件中的数据尽可能的压缩来降低存储空间的消耗。矢量化读取ORC格式的数据能够大幅提升ORC数据读取性能。在Spark2.3版本中,SparkSQL支持矢量化读取ORC数据(这个特性在Hive的历史版本中已经得到支持)。矢量化读取ORC格式的数据能够获得比传统读取方式数倍的性能提升。

    来自:帮助中心

    查看更多 →

  • 使用kv-cache-int8量化

    使用kv-cache-int8量化 kv-cache-int8是实验特性,在部分场景下性能可能会劣于非量化。当前支持per-tensor静态量化,支持kv-cache-int8量化和FP16、BF16、AWQ、smoothquant的组合。 kv-cache-int8量化支持的模型请参见表3。

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表1。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化量化方法:W4A16 per-group/per-channel

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了