快速部署高可用RabbitMQ集群

快速部署高可用RabbitMQ集群

    队列实现原理 更多内容
  • API实现

    API实现 创建后端

    来自:帮助中心

    查看更多 →

  • 清除队列配置

    清除队列配置 操作场景 当队列不再需要某个资源池的资源,或资源池需要与队列取消关联关系时,用户可以在 MRS Manager清除队列配置。清除队列配置即取消队列在此资源池中的资源容量策略。 前提条件 如果队列需要清除与某个资源池的绑定关系,该资源池不能作为队列的默认资源池,需要先将

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 构造规范请求。 将待发送的请求内容按照与API网关(即API管理)后台约定的规则组装,确保客户端签名、API网关后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到H

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 APP认证流程 构造规范请求。 将待发送的请求内容按照与APIC后台约定的规则组装,确保客户端签名、APIC后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到HTT

    来自:帮助中心

    查看更多 →

  • 产品架构和功能原理

    行导入命令将数据恢复到目标数据库。 实时同步基本原理 图4 实时同步原理 实时同步功能实现源数据库和目标数据库的数据长期同步,主要用于OLTP到OLAP、OLTP到大数据组件的数据实时同步。全量和增量的数据同步和实时迁移的技术原理基本一致,但是基于不同的业务使用场景,两个功能还是有些差异。

    来自:帮助中心

    查看更多 →

  • HDFS基本原理

    HDFS基本原理 HDFS是Hadoop的分布式文件系统(Hadoop Distributed File System),实现大规模数据可靠的分布式读写。HDFS针对的使用场景是数据读写具有“一次写,多次读”的特征,而数据“写”操作是顺序写,也就是在文件创建时的写入或者在现有文件

    来自:帮助中心

    查看更多 →

  • Oozie基本原理

    Oozie基本原理 Oozie简介 Oozie是一个基于工作流引擎的开源框架,它能够提供对Hadoop作业的任务调度与协调。 Oozie结构 Oozie引擎是一个Web App应用,默认集成到Tomcat中,采用pg数据库。 基于Ext提供WEB Console,该Console

    来自:帮助中心

    查看更多 →

  • Doris基本原理

    Key唯一性约束。因此,引入了Unique数据模型。 读时合并 Unique模型的读时合并实现完全可以用Aggregate模型中的REPLACE方式替代,其内部的实现方式和数据存储方式也完全一样。 写时合并 Unique模型的写时合并实现,不同于Aggregate模型,查询性能更接近于Duplicate

    来自:帮助中心

    查看更多 →

  • 异地双活原理介绍

    异地双活原理介绍 GeminiDB Cassandra提供了异地双活功能,通过异地实例间数据的双向同步和业务灵活调度能力,实现了业务恢复和故障恢复解耦,保障了故障场景下业务的连续性。 异地双活是一种多活容灾架构的解决⽅案,即部署在不同数据中心的GeminiDB Cassandra

    来自:帮助中心

    查看更多 →

  • HBase基本原理

    HBase基本原理 数据存储使用HBase来承接,HBase是一个开源的、面向列(Column-Oriented)、适合存储海量非结构化数据或半结构化数据的、具备高可靠性、高性能、可灵活扩展伸缩的、支持实时数据读写的分布式存储系统。更多关于HBase的信息,请参见:https://hbase

    来自:帮助中心

    查看更多 →

  • Hive基本原理

    Hive基本原理 Hive是建立在Hadoop上的 数据仓库 基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。Hive定义了简单的类SQL查询语言,称为HQL,它允许熟悉SQL的用户查询数据。

    来自:帮助中心

    查看更多 →

  • Kafka基本原理

    Group1与Consumer Group2中。 关于Kafka架构和详细原理介绍,请参见:https://kafka.apache.org/24/documentation.html。 Kafka原理 消息可靠性 Kafka Broker收到消息后,会持久化到磁盘,同时,To

    来自:帮助中心

    查看更多 →

  • HetuEngine基本原理

    HetuEngine提供了统一标准SQL实现跨源协同分析,简化跨源分析操作。 图2 HetuEngine跨源功能示意 HetuEngine跨域功能简介 HetuEngine提供统一标准SQL对分布于多个地域(或数据中心)的多种数据源实现高效访问,屏蔽数据在结构、存储及地域上的差异,实现数据与应用的解耦。

    来自:帮助中心

    查看更多 →

  • CarbonData基本原理

    CarbonData基本原理 CarbonData是一种新型的Apache Hadoop本地文件格式,使用先进的列式存储、索引、压缩和编码技术,以提高计算效率,有助于加速超过PB数量级的数据查询,可用于更快的交互查询。同时,CarbonData也是一种将数据源与Spark集成的高性能分析引擎。

    来自:帮助中心

    查看更多 →

  • CDL基本原理

    CDL基本原理 CDL简介 CDL(全称Change Data Loader)是一个基于Kafka Connect框架的实时数据集成服务。 CDL服务能够从各种OLTP数据库中捕获数据库的Data Change事件,并推送到kafka,再由sink connector推送到大数据生态系统中。

    来自:帮助中心

    查看更多 →

  • StarRocks基本原理

    StarRocks基本原理 StarRocks简介 StarRocks是一款高性能分析型数据仓库,使用向量化、MPP架构、CBO、智能物化视图、可实时更新的列式存储引擎等技术实现多维、实时、高并发的数据分析。 StarRocks既支持从各类实时和离线的数据源高效导入数据,也支持直接分析 数据湖 上各种格式的数据。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 CCE支持多种工作负载伸缩方式,策略对比如下: 表1 弹性伸缩策略对比 伸缩策略 HPA策略 CronHPA策略 CustomedHPA策略 策略介绍 Kubernetes中实现POD水平自动伸缩的功能,即Horizontal Pod Autoscaling。

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    自动建表原理介绍 自动建表时的字段类型映射 CDM 在数据仓库服务(Data Warehouse Service,简称DWS)中自动建表时,DWS的表与源表的字段类型映射关系如图1所示。例如使用CDM将Oracle整库迁移到DWS,CDM在DWS上自动建表,会将Oracle的NUMBER(3

    来自:帮助中心

    查看更多 →

  • 背景及原理(服务编排)

    背景及原理(服务编排) AstroZero的服务编排,支持对逻辑判断组件、数据处理组件,以及脚本、子服务编排、商业对象等进行可视化组合编排,实现丰富的业务功能。 了解服务编排 在传统的开发中程序员一般是基于代码进行开发,程序员需要学习内容较多,开发效率相对低一些,开发门槛也高。A

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 构造规范请求。 将待发送的请求内容按照与API网关(即API管理)后台约定的规则组装,确保客户端签名、API网关后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到H

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了