自助服务

华为云自助服务为用户提供产品常见问题,自助工具,便捷服务入口,帮助您更加方便、快捷的使用云服务

    端口扫描工具使用 更多内容
  • 使用DSC工具迁移SQL脚本

    集群版本。 图1 下载工具 下载客户端软件。 表1 DSC下载地址 适用操作系统 下载地址 校验文件 请参见DSC SQL语法迁移工具操作指导 DSC.zip DSC.zip.sha256 下载到本机后,使用WinSCP工具,将DSC工具上传到一个需安装工具的Linux主机上。

    来自:帮助中心

    查看更多 →

  • schedule-tool工具使用指导

    “kerberos”,表示使用安全模式,进行Kerberos认证。Kerberos认证提供两种认证方式:密码和keytab文件。 “simple”,表示使用普通模式,不进行Kerberos认证。 kerberos authentication.user 普通模式或者使用密码认证方式时,登录使用的用户。

    来自:帮助中心

    查看更多 →

  • 使用逻辑复制工具复制数据

    使用逻辑复制工具复制数据 目前支持 GaussDB 逻辑复制的工具有SDR和DRS。复制工具从GaussDB抽取逻辑日志后到对端数据库回放。对于使用JDBC连接数据库的复制工具,具体代码请参考示例:逻辑复制代码示例。 父主题: 逻辑解码

    来自:帮助中心

    查看更多 →

  • 使用逻辑复制工具复制数据

    使用逻辑复制工具复制数据 目前支持GaussDB逻辑复制的工具有SDR和DRS。复制工具从GaussDB抽取逻辑日志后到对端数据库回放。对于使用JDBC连接数据库的复制工具,具体代码请参考逻辑复制。 父主题: 逻辑解码

    来自:帮助中心

    查看更多 →

  • MySQL Online DDL工具使用

    MySQL Online DDL工具使用 DDL工具简介 MySQL原生的DDL工具 gh-ost工具 instant秒级加列 DDL工具测试对比 父主题: 使用数据库

    来自:帮助中心

    查看更多 →

  • 第三方工具使用

    第三方工具使用 OBS使用指南 VLC使用指南

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量导入HBase数据

    使用BulkLoad工具批量导入HBase数据 操作场景 您可以按照自定义的方式,通过命令批量导入数据到HBase中并创建索引。 您可以在“configuration.xml”文件中定义多个方式来批量导入数据。导入数据时可不创建索引。 列的名称不能包含特殊字符,只能由字母、数字和下划线组成。

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量更新HBase数据

    使用BulkLoad工具批量更新HBase数据 操作场景 HBase BulkLoad工具支持根据RowKey的命名规则、RowKey的范围、字段名以及字段值进行批量更新数据。 使用BulkLoad工具批量更新HBase数据 执行如下命令更新从“row_start”到“row_s

    来自:帮助中心

    查看更多 →

  • 开源sqoop-shell工具使用指导

    息的方式,第一种通过配置文件获取,具体配置项请参考开源sqoop-shell工具使用示例(SFTP - HDFS)、开源sqoop-shell工具使用示例(Oracle - HBase);第二种方式则使用参数直接提供认证信息,这个方式有两种模式:密码模式和Kerberos认证模式。

    来自:帮助中心

    查看更多 →

  • 使用BulkLoad工具批量删除HBase数据

    使用BulkLoad工具批量删除HBase数据 操作场景 BulkLoad工具支持根据rowkey的取值模式、范围、字段名、字段值对HBase数据做批量删除。 使用BulkLoad工具批量删除HBase数据 执行如下命令删除从“row_start”到“row_stop”的行,并且

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    使用Spark小文件合并工具说明 工具介绍 在Hadoop大规模生产集群中,由于HDFS的元数据都保存在NameNode的内存中,集群规模受制于NameNode单点的内存限制。如果HDFS中有大量的小文件,会消耗NameNode大量内存,还会大幅降低读写性能,延长作业运行时间。因

    来自:帮助中心

    查看更多 →

  • 使用Hive异常文件定位定界工具

    使用Hive异常文件定位定界工具 操作场景 由于某些异常操作或者磁盘损坏等原因导致Hive存储的数据文件出现异常,异常的数据文件会导致任务运行失败或者数据结果不正确。 该工具用于对常见的非文本类的数据文件格式进行异常排查。 该章节内容仅适用 MRS 3.2.0及之后版本。 操作步骤

    来自:帮助中心

    查看更多 →

  • 使用CLI工具,如何配置网络代理?

    使用CLI工具,如何配置网络代理? 问题描述 使用CLI工具,在上传程序zip包时,是否可以设置代理 服务器 和身份认证信息,通过内部网络的代理网关认证。 问题解决 设置网络代理命令如下: export HTTP_PROXY="http://user:password@proxyIp:proxyPort"

    来自:帮助中心

    查看更多 →

  • 使用BI工具连接DLI分析数据

    使用BI工具连接 DLI 分析数据 BI工具连接DLI方案概述 配置DBeaver连接DLI进行数据查询和分析 配置DBT连接DLI进行数据调度和分析 配置YongHong BI连接DLI进行数据查询和分析 配置PowerBI通过Kyuubi连接DLI进行数据查询和分析 配置Fine

    来自:帮助中心

    查看更多 →

  • AIGC工具tailor使用指导

    AIGC工具tailor使用指导 tailor简介 tailor是AIGC场景下用于模型转换(onnx到mindir)和性能分析的辅助工具,当前支持以下功能。 表1 功能总览 功能大类 具体功能 模型转换 固定shape转模型 动态shape传入指定档位转模型 支持fp32 支持AOE优化

    来自:帮助中心

    查看更多 →

  • 迁移过程使用工具概览

    iling采集工具集成到同一个工具中,极大简化了用户的使用流程。建议在迁移过程中使用Tailor工具替代下面列举的原始工具MS Convertor、Benchmark和msprof。使用指导详见AIGC工具tailor使用指导。 模型转换工具 离线转换模型功能的工具MSLite

    来自:帮助中心

    查看更多 →

  • 使用客户端工具连接DLI

    使用客户端工具连接DLI 使用JDBC提交SQL作业 使用Spark-submit提交Spark Jar作业 使用Livy提交Spark Jar作业

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表1。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化,量化方法为per-group。 Step1 模型量化

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化工具转换权重

    使用AWQ量化工具转换权重 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见支持的模型列表和权重文件。 本章节介绍如何在Notebook使用AWQ量化工具实现推理量化。 量化方法:W4A16

    来自:帮助中心

    查看更多 →

  • 使用分配工具进行成本归集

    使用分配工具进行成本归集 概述 通过关联账号维度查看成本分配 通过企业项目维度查看成本分配 通过成本标签维度查看成本分配

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    使用Spark小文件合并工具说明 工具介绍 在Hadoop大规模生产集群中,由于HDFS的元数据都保存在NameNode的内存中,集群规模受制于NameNode单点的内存限制。如果HDFS中有大量的小文件,会消耗NameNode大量内存,还会大幅降低读写性能,延长作业运行时间。因

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了