流水线 CloudPipeline

提供可视化、可定制的持续交付流水线服务,实现缩短交付周期和提升交付质量的效果

 
 

    开源自动化测试平台 更多内容
  • HBase开源增强特性

    分割,避免了因为Region空间不足出现Region分割导致性能下降的现象。 图2 多点分割 HBase开源增强特性:连接数限制 过多的session连接意味着过多的查询和MR任务跑在HBase上,这会导致HBase性能下降以至于导致HBase拒绝服务。通过配置参数来限制客户端连

    来自:帮助中心

    查看更多 →

  • Kafka开源增强特性

    Kafka开源增强特性 Kafka开源增强特性 支持监控如下Topic级别的指标: Topic输入的字节流量 Topic输出的字节流量 Topic拒绝的字节流量 Topic每秒失败的fetch请求数 Topic每秒失败的Produce请求数 Topic每秒输入的消息条数 Topic每秒的fetch请求数

    来自:帮助中心

    查看更多 →

  • Flink开源增强特性

    Flink开源增强特性 Flink滑动窗口增强 Flink Job Pipeline增强 Flink Stream SQL Join Flink CEP in SQL 父主题: Flink

    来自:帮助中心

    查看更多 →

  • YARN开源增强特性

    ,是针对企业客户融合资源池,多租户的业务诉求而设计的高性能企业级调度器。 Superior Scheduler可实现开源调度器、Fair Scheduler以及Capacity Scheduler的所有功能。另外,相较于开源调度器,Superior Scheduler在企业级多租

    来自:帮助中心

    查看更多 →

  • Oozie开源增强特性

    Oozie开源增强特性 Oozie开源增强特性:安全增强 支持Oozie权限管理,提供管理员与普通用户两种角色。 支持单点登录登出,HTTPS访问以及审计日志。 父主题: Oozie

    来自:帮助中心

    查看更多 →

  • 开源Kafka输入流

    开源Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kaf

    来自:帮助中心

    查看更多 →

  • 开源Kafka输出流

    开源Kafka输出流 功能描述 DLI 将Flink作业的输出数据输出到Kafka中。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka服务

    来自:帮助中心

    查看更多 →

  • 性能测试方法

    请求的P9999时延,是非常严格的时延指标,表示99.99%的请求执行时间小于该值,仅少量尾部请求超过该值。 测试步骤 注入测试数据 测试前,生成并注入数据库测试数据。基于测试模型三种类型的分布,对三种数据类型进行如下配置: hash类型 key:34位字符,使用字符串前缀+9位数字

    来自:帮助中心

    查看更多 →

  • HDFS开源增强特性

    HDFS开源增强特性 HDFS开源增强特性:文件块同分布(Colocation) 离线数据汇总统计场景中,Join是一个经常用到的计算功能,在MapReduce中的实现方式大体如下: Map任务分别将两个表文件的记录处理成(Join Key,Value),然后按照Join Key

    来自:帮助中心

    查看更多 →

  • Spark开源增强特性

    Spark开源增强特性 跨源复杂数据的SQL查询优化 出于管理和信息收集的需要,企业内部会存储海量数据,包括数目众多的各种数据库、 数据仓库 等,此时会面临以下困境:数据源种类繁多,数据集结构化混合,相关数据存放分散等,这就导致了跨源复杂查询因传输效率低,耗时长。 当前开源Spark

    来自:帮助中心

    查看更多 →

  • Storm开源增强特性

    一时刻的计算结果。使用CQL,可以快速进行业务开发,并方便地将业务提交到Storm平台开启实时数据的接收、处理及结果输出;并可以在合适的时候中止业务。 高可用性 Nimbus HA机制,避免了开源Storm集群中Nimbus出现单点故障而导致集群无法提供Topology的新增及管理操作的问题,增强了集群可用性。

    来自:帮助中心

    查看更多 →

  • 开源Kafka输出流

    开源Kafka输出流 功能描述 DLI将Flink作业的输出数据输出到Kafka中。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka服务

    来自:帮助中心

    查看更多 →

  • 开源许可证

    开源许可证 操作场景 用户可以查看开源许可证的信息和自定义开源许可证的风险等级。 前提条件 已获取管理控制台的登录账号与密码。 操作步骤 登录开源治理服务控制台。 在左侧导航栏,单击“开源许可证”。 在“开源许可证”页面,可看到许可证列表,内容包含许可证名称、集成风险、许可证描述和风险分析以及重置操作。

    来自:帮助中心

    查看更多 →

  • API自动化用例

    API自动化用例 API自动化测试为将请求直接发送到应用程序的后端或服务,并验证响应内容以确保按预期运行的同时收到响应。 新建API自动化用例 支持用例设计人新建API自动化用例。 新建入口:【API自动化】->【用例管理】->【新建】。 图1 新建API自动化用例 填写用例相关

    来自:帮助中心

    查看更多 →

  • 自动化运维

    自动化运维 表1 自动化运维基本概念 术语 说明 脚本管理 支持Shell、Python、Bat、Powershell脚本语言以及单个脚本的多版本管理。 作业管理 将脚本和文件原子操作进行多步骤编排形成作业模板,用于完成特定运维自动化场景操作。例如初始化业务环境。 执行方案 从作

    来自:帮助中心

    查看更多 →

  • 自动化运维

    自动化运维 “√”表示支持,“x”表示暂不支持。 表1 自动化运维 权限 对应API接口 授权项 IAM项目(Project) 企业项目(Enterprise Project) 创建任务 POST /v1/{project_id}/cms/workflow cms:workflow:create

    来自:帮助中心

    查看更多 →

  • 补丁自动化操作

    补丁自动化操作 补丁扫描或补丁修复支持创建自动化任务,可定时执行补丁扫描或补丁修复作业。 操作场景 通过Cloud Operations Center查看创建补丁自动化任务。 操作步骤 登录COC。 在左侧菜单栏中选择“资源运维”,单击“自动化运维” ,单击“补丁管理”,进入“补

    来自:帮助中心

    查看更多 →

  • 自动化运维

    自动化运维 补丁管理 脚本管理 作业管理 定时运维 帐号管理 参数管理

    来自:帮助中心

    查看更多 →

  • 创建自动化任务

    创建自动化任务 什么是自动化 自动化是高效管理应用的小助手,当表单数据新增或修改,且满足一定触发条件后,自动化小助手会同步修改或新增另一张表单的数据,从而达到自动更新数据、发起流程等智能化操作。自动化一般用于处理常见重复问题,帮助大家提升工作效率。如何结合某个场景,创建自动化任务,请参见结合典型场景设置自动化。

    来自:帮助中心

    查看更多 →

  • 启用自动化任务

    单击页面右上角的,进入自动化页面。 在自动化列表中,单击未启用自动化任务后的。 图1 编辑自动化任务 在自动化任务设计页面,单击右上角的“已关闭”,即可启用自动化任务。 “已关闭”状态变为“运行中”,表明自动化任务启用成功。 图2 启用自动化任务 测试自动化任务 自动化任务启用成功后,

    来自:帮助中心

    查看更多 →

  • 删除自动化任务

    删除自动化任务 删除自动化任务前,需要先停止自动化任务。 删除自动化任务 参考登录零代码工作台中操作,登录AstroZero零代码工作台。 在全部应用中,单击应用后的“...”,选择“编辑”,进入编辑应用页面。 单击页面右上角的,进入自动化页面。 在自动化列表中,单击未启用自动化任务后的,选择“删除”。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了