- 最新动态
- 产品介绍
- 快速入门
- 用户指南
- 最佳实践
-
常见问题
- 公共模块
- 空间管理
- 方案管理
-
设计中心
- 如何移动画布?
- 图元在面板图元里无法选中怎么办?
- 如何复制架构?
- 架构设计时有些图元搜索不到。
- 如何新建部署架构?
- 部署架构的删除按钮为什么是置灰的?
- 解决方案工作台如何体现项目依赖的其他资源信息?
- 设计中心页面为什么没有提交审核按钮?
- 怎么发布架构模板到解决方案加速场?
- 设计完成后能更改集成架构、部署架构吗?
- 架构可靠性检查,为什么有的会有手动评估补充?
- 集成架构可靠性检查结果不通过,还可以保存和提交吗?
- 为什么设计中心集成架构保存一直转圈,无法保存?
- 方案审核通过后修改配置清单,需要重新提交吗?
- 自动化部署架构提示未知异常,请联系管理员
- 部署架构在评估的时候,手动评估补充是什么意思?
- RFS自动化部署支持使用代金券吗?
- 新建需求的时候,提示集成架构审核未完成
- 怎么收起设计中心的属性框?
- 已经加了CCE,可靠性检查的时候,”应用部署使用CCE集群/ECS集群”项显示“缺少ECS集群“
- 在技术架构里可以选到线框内的图元,但是在图形模式手工部署(图形模式)中选不到线框内的图元?
- 使用自动化部署架构RFS一键部署云服务支持代金券吗?
-
验证中心
- 新建需求为什么选不到自己需要的那个方案?
- 测试需求名称审核后还可以修改吗?
- 在新建需求页面如何选择集成架构/部署架构?
- 在需求的流程图里选择的默认处理人后面可以更改吗?
- 新建需求时关联模板,为什么有的用例没有加载出来?
- 是否可以直接从用例管理新建用例做验证?
- 怎么变更用例设计处理人或者用例执行处理人?
- 测试需求的创建人为什么看到需求的编辑按钮还是置灰的?
- 怎样让不同企业的测试人员都能创建测试用例?
- 如何批量执行用例?
- 怎么批量删除用例?
- 用例列表里执行按钮为什么是置灰的?
- 怎样查看用例的审核意见?
- 表格导入用例报错如何处理?
- 测试报告生成后不会自动下载吗?
- 合并报告可以合并多少个?
- 表格导入用例的时候,同名校验的解释不是很理解。
- 部署在HCS底座的主机连通性测试失败。
- 自动化用例预期的成功率在哪里设置?
- 性能自动化用例脚本已经执行完成了,为什么还是显示执行中?
- 导出的文件多很多字段导入的时候不用删除吗?
- 怎么查看用例的主设计人和主执行人?
- 解决方案工作台安全扫描和性能压测时发起请求的网络ip分别是哪些?
- 从需求加载用例模板,只有手工用例,没有自动化用例。
- 如何放大用例的实际结果富文本框?
- 用例回收站不显示被删除的自动化用例吗?
- 编辑用例页面的评论功能的作用是什么?
- 用例附件是否支持.one格式的文件?
- 新建用例的附件和执行用例页面的附件是关联的吗?
- 用例管理页面会隔一会出现类似刷新的动作,怎么处理?
- 需求已经有了为啥创建不了用例
- 问题管理的问题单导出乱码是什么原因?
- 测试问题的编辑按钮为什么是置灰的?
- 测试问题的处理责任人(非提出人)不能闭环该问题吗?
- 提交报告审核时提示还有执行人未确定提交怎么办?
- 测试报告里最后一页的测试代表是显示用户账号吗?
- 测试报告末尾的会签为什么只有测试方信息,没有审核方信息?
- 测试报告被驳回了,为什么用例列表里显示的测试结果为“通过“?
- 测试报告的会签为什么会有多行测试代表和多行审核人?
- 修改了用例,再提交报告审核的时候重新没有生成报告,提交的报告是最新的内容吗?
- 测试报告审核通过后,是否还能对流程过程中的某一步骤做修改?
- 怎样一次提交所有用例审核,包含是手动和自动化的用例?
- 联营的用例为啥实际结果里没有图片也能执行成功?
- 报告的生成名称规则是什么?
- 不同的租户名购买的资源部署的系统,会影响自动化用例执行吗?
- 联营方案设计完成后,为什么自动生成多个需求草稿?
- 报告会签中的测试方公司名来源。
- 主机扫描提示从vss获取扫描结果超时。
- 二进制扫描的二进制包上传后有效期多久?
- 网站安全扫描的结果里显示扫描的url不全。
- 性能自动化的全局变量和局部变量区别?
- 用例设计人看不到用例设计提交按钮?
- 性能压测用例调试失败,提示访问url超时。
- 联营测试中有的性能自动化用例没有在测试总结里显示。
- 联营认证、伙伴lead和先进云软件,标准化的测试报告名称里包含的是方案名还是需求名?
- 性能压测完成没有自动生成CPU、内存的使用率曲线图。
- windows系统主机扫描提示登陆未成功。
- Linux系统主机互通性失败。
- 自动生成的自动化用例不能删除。
- 导入需求导入材料时提示”xxx行的一级功能、二级功能、核心功能点不能一样”。
- 被复用的方案里已经有对应的能力测试,但是复用的时候显示能力评估不通过。
- 执行性能压测用例在调试过程中,提示”在处理您的请求的时候出现了错误,如果继续出现,请联系平台技术支持”。
- 为什么在设计中心修改了配置清单,资源管理的配置清单没有同步?
- 性能自动化用例,为什么配置监控的时候选不到对应的服务器?
- 运营中心
- 解决方案加速场
- 运维事件中心
- 交付中心
- 公网地址说明
- 文档下载
- 通用参考
链接复制成功!
数据实施质量检查
实施质量检查包含数据实例实施过程中的工具,旨在帮助客户在进行数据治理过程中,能够更好地监控实施过程中的质量,包含数据模型设计、源系统和SDI层数据一致性检测、数据平台检测、脚本规范检测、DataArts Studio命名规范检测和作业监控。
功能模块 |
子模块 |
说明 |
---|---|---|
数据模型设计检测 |
|
数据治理时,数据会分层建设,数据集成方式(增量,全量)、集成周期都不一样,按照这些对每张表按其统一规范命名。扩展字段是为了对其每条数据做更好的运维统计,例如加了版本批次号、经过哪个ETL脚本而来的、数据入仓更新时间、软删除等等。 |
源系统和SDI层数据一致性检测 |
|
在数据集成时,最重要的是数据不丢失、不失真、不乱码、源表数据结构不变化,否则会造成数据指标计算不准确。而数据集成服务的网络往往非常复杂,依赖于源系统和网络,因此在监控检测源系统和数据湖的SDI层的数据一致性,可以快速给问题定界定位。 |
DGC命名规范检测 |
|
DGC是数据治理中心,尤其是数据开发模块,数据的ETL脚本的逻辑和任务调度编排均在DGC上。因此,一个规范统一的命名规范显得尤为重要,统一而规整,加强数据治理的专业性。 |
脚本规范检测 |
|
脚本承载着数据ETL的逻辑,定期运行。增强脚本的可读性,有助于数据开发阶段的人员定位问题、交流以及后期的运维。 |
DGC作业监控 |
|
作业运行时长的影响因素包含计算资源的影响和处理数据的影响,因此,当作业运行时间波动很大时,表明计算资源或者表数据有问题。例如,临时表没有清理,表数据发散等等,到最后都会造成重大问题。本功能模块可以在这些bug产生较小的影响情况下发现并及时修改。 |
数据模型设计
数据治理过程中,每层的表命名都有其规范,在数据集成增量集成过程中也会多增加些表字段如ext_delete_flag (删除)、ext_updated_at (数据入仓时间)。实施人员可以通过运行此功能,检测到项目中不满足要求的表,即时整改。
- 表命名规范检查
表命名规范检查功能用于检查目的端(DWS、MRS-HUDI等)数据库中的表命名是否符合项目中的规范要求。项目中大多表是根据数据模型的层进行开头命名的,如:
- 贴源层命名:ods/sdi_业务名
- 维表命名:dim_{domain/subject}
- 主题层 dwi_{domain/suject}_(business_info)_[suffix] 、domain/suject:多为业务主题域
- 明细层:dwr_{domain/suject}_(business_info)_[suffix]
- 汇总层:dws_{domain/suject}_(business_info)_[suffix]
- 集市层:dm_{domain/suject}_(business_info)_[suffix]
图1 表命名规范检查操作步骤:
- 参考管理应用系统和数据连接,创建需要进行检查的数据连接;
- 点击【规则配置】,可查看到解决方案工作台预置的表命名规范检查规则,用户可根据需要修改或新增。
- 添加监控对象,选择要监控的数据连接类型和连接名称。
图2 添加监控对象
- 添加采集信息,对需要进行规范检查的DB、Schema进行配置,配置规则名根据需要选择解决方案工作台预置的或新增的规范标准。
图3 添加采集信息
- 预览监控对象配置信息,并将该信息保存到本地,另存为配置文件application.properties。
图4 预览监控对象配置信息
- 下载探源工具。
图5 探源工具下载入口
- 将探源工具解压缩为jar包,并与配置文件application.properties一起放在远端服务器同一目录下。要求:该服务器为Linux操作系统,且网络上能访问到要进行质量检查的数据库。
图6 探源工具
- 运行启动脚本:run_agent.sh。启动后,探源工具将会按照配置文件application.properties的规则进行数据质量检查。
探源工具通过查询指定数据库的系统表获取相关信息,对数据库压力较小,但为了保证不影响业务,建议将探源工具的定时任务设置在凌晨等压力较小的时间段进行。
- 查看检查结果。
如果运行探源工具的服务器可访问公网,则检查结果可在线上报,点击界面右侧的刷新按钮即可查看;如果运行探源工具的服务器仅能在内网运行,可通过【导入】的方式将探源工具获取的结果进行导入。
图7 探源工具运行结果图8 查看检查结果
- 附件字段检查
与表命名规范检查一样,可以添加需要监控的对象后配置需要采集信息的数据库、表,用户可根据需要修改/新增附加字段规范。同样,本功能模块需要运行探源工具获取检查结果。
图9 附件字段检查
源系统和SDI层数据一致性检测
在数据治理过程中,从源数据库实时/定时抽取指定表的数据到目的数据库中的指定位置时,会存在数据抽取问题:
- 数据记录条数丢失(源表和目标表数据记录条数不一致),因此需要此功能来定时检查数据抽取是否一致
- 数据库表字段丢失(源表与目的表表字段不同),原因是在项目的进行过程中,存在源系统表字段的增删改,导致数据实时同步的时候出现异常。
- 数据库表内容不一致(源与目的的表内容不一致),在数据的抽取过程中由于源表和目的表存在内容的格式问题,导致数据转码,造成源端与目的端数据不同。
本模块提供源系统和SDI层数据一致性检测,旨在通过以下功能解决上述问题:
- 表记录:对比源端与目的端表的记录条数是否一致,如果源目的数据记录条数在一个容忍范围内,则认为是一致的。
- 表字段:在数据迁移过程中,由于业务的变化,可能存在源端数据库部分表的字段会存在添加和删除的情况。通过配置每个表的时间戳与容忍记录数来判断表字段一致性(如果没有时间戳则查询所有的记录数)。
本模块的操作步骤同数据模型设计。

DataArts Studio命名规范检测
DGC是数据治理中心,尤其是数据开发模块,数据的ETL脚本的逻辑和任务调度编排均在DGC上。因此,一个规范统一的命名规范显得尤为重要,统一而规整,数据治理的专业性强。
- 作业命名检查
检查DataArts Studio作业是否符合项目定义的规范。
- 编辑作业命名规范。解决方案工作台预置了批处理作业和实时检查作业的检查规范,可点击【规则配置】根据需要修改。
- 新建监控对象。选择本账号下要检查的DataArts Studio实例。
图11 添加监控对象
- 点击刷新按钮,查看检查结果。
图12 查看检查结果
- 作业节点命名检查
检查DataArts Studio作业中的作业节点(CDM JOB、MRS Kafka等)命名是否符合项目定义的规范。同样,用户可根据需要修改解决方案工作台预置的节点命名检查规范后,添加指定的监控对象进行检查。
图13 作业节点命名检查 - 脚本命名检查
检查DataArts Studio脚本命名是否符合项目定义的规范。
图14 脚本命名检查 - 环境变量命名
检查DataArts Studio环境变量命名是否符合项目定义的规范。主要用于对脚本中的环境变量进行检查。
图15 环境变量命名检查 - 数据连接命名规则
检查DataArts Studio数据连接(Oracle、MRS Hudi、Hive、DWS等)命名是否符合项目定义的规范。
图16 数据连接命名检查
脚本规范检测
DataArts Studio中的脚本承载着数据ETL的逻辑,定期运行。增强脚本的可读性,有助于数据开发阶段的人员定位问题、交流以及后期的运维。当前仅支持DWS。
- 脚本注释:对脚本的注释情况进行检查。
- 排版规范:对脚本的排版进行检查。
- 语句规范:对脚本的语法规则进行检查。
图17 添加脚本检测规范图18 查看检查结果
DataArts Studio作业监控
作业运行时长的影响因素包含计算资源的影响和处理数据的影响,因此,当作业运行时间波动很大时,表明计算资源或者表数据有问题。例如,临时表没有清理,表数据发散等等,到最后都会造成重大问题。本功能模块的作可以在这些bug产生较小的影响情况下发现并及时修改。
一般先查看作业的运行时间,如果时间有异常,再查看作业的哪些节点是否有异常。
- 作业监控规则配置
- 作业运行时间波动范围:某个作业相对于历史平均运行时间的上下波动范围值。
- 节点运行时间波动范围:作业的每个节点的相对于历史平均运行时间的上下波动范围值。
- 创建监控对象:选择对应的Region、IAM项目、DataArts studio实例、DataArts studio空间
图19 创建监控对象
- 添加作业监控
图20 添加作业监控
- 查看检查结果
- 平均运行时间:该作业历史30天内执行的平均时间(中间的虚线)。
- 最大波动执行时间:根据波动范围所求的,相对与平均值最大波动时间(最上方的虚线)。
- 最小波动执行时间: 根据波动范围所求的,相对与平均值最小波动时间(最下方的虚线)
在最大和最小波动时间内的作业,属于根据项目实际情况可接受的波动范围。超过波动则认为该作业有异常,需要通知相关人员进行定位。
图21 DataArts Studio作业监控