自助服务

华为云自助服务为用户提供产品常见问题,自助工具,便捷服务入口,帮助您更加方便、快捷的使用云服务

    功能测试自动化测试工具 更多内容
  • 词典测试

    词典测试 函数ts_lexize用于进行词典测试。 ts_lexize(dict regdictionary, token text) returns text[]如果输入的token可以被词典识别,那么ts_lexize返回词素的数组;如果token可以被词典识别但它是一个停用

    来自:帮助中心

    查看更多 →

  • 测试方法

    测试方法 本章节基于GeminiDB DynamoDB,进行性能测试,具体包括测试环境、测试步骤、以及测试模型。 测试环境 区域:华北-北京四。 可用区:可用区1。 弹性云服务器 (Elastic Cloud Server,简称E CS ):规格选择h3.4xlarge.2,16U32GB,操作系统镜像使用CentOS

    来自:帮助中心

    查看更多 →

  • 测试券

    测试券 软件合作伙伴 服务合作伙伴 数字化转型咨询与系统集成合作伙伴 父主题: 伙伴权益申请

    来自:帮助中心

    查看更多 →

  • 测试环境

    测试环境 硬件环境 每个测试环境6个节点,配置如下: CPU 16核:Intel Ice Lake 内存:64GB 网络带宽:9Gbit/s 磁盘:SSD云盘,每块600GB,共2块 软件环境 内核版本:Linux 3.10.0-862.14.1.5.h757.eulerosv2r7

    来自:帮助中心

    查看更多 →

  • 测试环境

    测试环境 硬件环境 每个测试环境6个节点,配置如下: CPU 16核:Intel Ice Lake 内存:64GB 网络带宽:9Gbit/s 磁盘:SSD云盘,每块600GB,共2块 软件环境 内核版本:Linux 3.10.0-862.14.1.5.h757.eulerosv2r7

    来自:帮助中心

    查看更多 →

  • 测试实例性能

    测试实例性能 测试RabbitMQ生产速率和消费速率

    来自:帮助中心

    查看更多 →

  • 测试实例性能

    测试实例性能 测试Kafka生产速率和CPU消耗 测试Kafka实例TPS

    来自:帮助中心

    查看更多 →

  • 测试结果

    测试结果 DWS测试了使用存算一体和存算分离两种部署架构下,TPC-H 1T规模数据集的开箱查询性能,共22个查询。存算一体查询总耗时为234.23s,存算分离查询总耗时为261.19s。 详细性能数据见下表。 表1 TPC-H测试结果 版本 8.3.0 9.1.0 - 存算一体

    来自:帮助中心

    查看更多 →

  • 性能测试方法

    内存 32GiB 操作系统 CentOS 8.2 64bit 测试工具 本次测试采用Redis Labs推出的多线程压测工具memtier_benchmark,具体使用方法请参见memtier_benchmark。 测试指标 本次模拟的广告业务场景(RTA)业务规模大致抽象为:1TB数据量、160w

    来自:帮助中心

    查看更多 →

  • 功能自动化用例

    功能自动化用例 新建功能自动化用例 支持用例设计人新建功能自动化用例。 在用例管理页面,点击【功能自动化】->【新建】按钮 图1 用例管理页面-功能自动化 进入到用例新建页面,填写用例的相关内容(红色*号的为必填项),完成后点击确定 表1 功能自动化用例新建参数说明 参数 说明 需求描述

    来自:帮助中心

    查看更多 →

  • 模型测试

    “是否绘图”请选择“是”,可以通过绘图查看模型的测试验证效果。 图3 异常检测模型测试 单击“异常检测模型测试”代码框左侧的图标。等待模型测试完成。 模型测试打印结果示例,如图4所示。截图仅为模型测试打印结果的一部分,具体以实际打印结果为准。 图中黑点是模型预测的异常点,红点是原始异常点。 图4 模型测试结果 父主题:

    来自:帮助中心

    查看更多 →

  • 测试模型

    测试模型 用测试数据测试模型的泛化能力。训练数据可以是带标签或者不带标签的数据,测试数据一定是带标签的数据,方便评估模型执行效果。 单击“训练模型”左下方的“测试模型”,新增“测试模型”内容。 参数配置均保持默认值。 单击“测试模型”代码框左侧的图标,进行模型评估。 模型测试效果会通过表格的形式在下方展示。

    来自:帮助中心

    查看更多 →

  • 发布测试

    发布测试 当您配置好对话流程后,需要训练发布才能在对话体验中生效。 单击页面上方导航栏中“发布测试”,进入“发布测试”页面。 单击“训练模型”,弹出“训练模型”对话框。 如果对话流程检测后有严重错误未修改,会提示先去修改再进行训练。 图1 训练模型 勾选“用户常用问法”,设置技能阈值、描述信息。

    来自:帮助中心

    查看更多 →

  • 验收测试

    验收测试 使用无线终端现场验收 使用CloudCampus APP现场验收(安卓版) 登录云管理平台验收 父主题: 单AP组网场景

    来自:帮助中心

    查看更多 →

  • 验收测试

    验收测试 使用无线终端现场验收 使用CloudCampus APP现场验收(安卓版) 登录云管理平台验收 父主题: AR+L2SW+中心AP+RU组网场景

    来自:帮助中心

    查看更多 →

  • 测试发布

    测试发布 应用创建成功后,可发布测试版应用。 在“版本发布管理”界面,单击对应应用操作栏的“发布”。 在弹出的发布界面,选择“测试发布”,单击“选择人员”,可添加测试体验的人员。 单击“发布”,发布测试版成功。 获取测试版本,是为了进行充分体验和测试,以保证验证通过。可通过以下两种方式获取测试版本:

    来自:帮助中心

    查看更多 →

  • API测试

    用例。 用例等级 L0:最基本的功能验证。 L1:基本功能验证,可用于继承特性的基本功能验证、迭代验收前的基本功能验证等。 L2:重要特性验证,可用于测试版本(非回归版本)中功能测试。 L3:一般功能/非重要功能验证,包括对基本/重要功能的异常测试。 L4:非常特殊输入、场景、阈值条件的用例。

    来自:帮助中心

    查看更多 →

  • API测试

    API测试 API测试导读 测试用例管理 测试套件管理

    来自:帮助中心

    查看更多 →

  • 发布测试

    发布测试 当您配置好意图后,即可进行模型的训练。训练并发布模型后,该技能才能在机器人的对话中生效。 创建训练模型 在“技能管理”页面,单击技能名称进入“配置意图”页面,然后在页面上方单击“发布测试”。 单击“训练模型”。 图1 训练模型 勾选需要训练发布的用户问法或者对话训练集,

    来自:帮助中心

    查看更多 →

  • pytest测试

    pytest测试 启动配置属性 启动配置示例 父主题: 启动配置

    来自:帮助中心

    查看更多 →

  • unittest测试

    unittest测试 启动配置属性 启动配置示例 父主题: 启动配置

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了