数据复制服务 DRS

数据复制服务(Data Replication Service,简称为DRS)是一种易用、稳定、高效,用于数据库在线迁移和数据库实时同步的云服务。DRS围绕云数据库,降低了数据库之间数据流通的复杂性,有效地帮助您减少数据传输的成本

立即购买1对1咨询                
帮助文档                
 

    数据库系统原理 更多内容
  • 数据库系统参数调优

    数据库系统参数调优 为了保证数据库尽可能高性能地运行,建议依据资源情况和业务实际进行数据库系统GUC参数的设置。本章节旨在介绍一些常用参数以及推荐配置,关于参数的详细设置方法请参考设置GUC参数。 数据库内存相关参数 表1 数据库内存相关参数 GUC参数 描述 建议 max_process_memory

    来自:帮助中心

    查看更多 →

  • 设备孪生工作原理

    设备孪生工作原理 边缘节点纳管后,会在边缘节点上安装Edge Agent,其中终端设备管理相关组件如下所示。 EdgeHub:WebSocket客户端,包括同步云端资源更新、报告边缘节点和终端设备信息到云端等功能。 DeviceTwin:设备孪生,负责存储终端设备状态并将设备状态同步到云端。

    来自:帮助中心

    查看更多 →

  • 设备孪生工作原理

    设备孪生工作原理 边缘节点纳管后,会在边缘节点上安装Edge Agent,其中终端设备管理相关组件如下所示。 EdgeHub:WebSocket客户端,包括同步云端资源更新、报告边缘节点和终端设备信息到云端等功能。 DeviceTwin:设备孪生,负责存储终端设备状态并将设备状态同步到云端。

    来自:帮助中心

    查看更多 →

  • 背景与原理(BPM)

    背景与原理(BPM) 工单管理模块中的工单场景业务编排是通过AstroZero的流程编排BPM(Business Process Management)功能实现的,通过在前端页面调用BPM完成工单流转,即客服人员创单,派单员派发工单,维修工程师处理工单的全过程。 开发BPM即是对

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 数据迁移进阶实践

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 父主题: 关键操作指导

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 关键操作指导

    来自:帮助中心

    查看更多 →

  • 数据库系统参数调优

    数据库系统参数调优 为了保证数据库尽可能高性能地运行,建议依据资源情况和业务实际进行数据库系统GUC参数的设置。本章节旨在介绍一些常用参数以及推荐配置,关于参数的详细设置方法请参考设置GUC参数。 数据库内存相关参数 表1 数据库内存相关参数 GUC参数 描述 建议 max_process_memory

    来自:帮助中心

    查看更多 →

  • 只读落后自愈技术原理

    只读落后自愈技术原理 GaussDB (for MySQL)是存储计算分离架构的云原生数据库,只读节点和主节点共享底层的存储数据。为了保证内存中的缓存数据的一致性,主节点与只读节点通信后,只读节点需要从Log Stores中读取主节点产生的redo来更新内存中的缓存数据。 图1 只读落后自愈技术原理图

    来自:帮助中心

    查看更多 →

  • Spark基本原理

    Spark基本原理 Spark简介 Spark是一个开源的,并行数据处理框架,能够帮助用户简单、快速的开发大数据应用,对数据进行离线处理、流式处理、交互式分析等。 Spark提供了一个快速的计算、写入及交互式查询的框架。相比于Hadoop,Spark拥有明显的性能优势。Spark

    来自:帮助中心

    查看更多 →

  • Hue基本原理

    Hue基本原理 Hue是一组WEB应用,用于和 MRS 大数据组件进行交互,能够帮助用户浏览HDFS,进行Hive查询,启动MapReduce任务等,它承载了与所有MRS大数据组件交互的应用。 Hue主要包括了文件浏览器和查询编辑器的功能: 文件浏览器能够允许用户直接通过界面浏览以及操作HDFS的不同目录;

    来自:帮助中心

    查看更多 →

  • Storm基本原理

    易于调试:CQL提供了详细的异常码说明,降低了用户对各种错误的处理难度。 关于Storm的架构和详细原理介绍,请参见:https://storm.apache.org/。 Storm原理 基本概念 表1 概念介绍 概念 说明 Tuple Storm核心数据结构,是消息传递的基本单元,

    来自:帮助中心

    查看更多 →

  • Flink基本原理

    Flink基本原理 Flink简介 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景

    来自:帮助中心

    查看更多 →

  • YARN基本原理

    YARN基本原理 为了实现一个Hadoop集群的集群共享、可伸缩性和可靠性,并消除早期MapReduce框架中的JobTracker性能瓶颈,开源社区引入了统一的资源管理框架YARN。 YARN是将JobTracker的两个主要功能(资源管理和作业调度/监控)分离,主要方法是创建

    来自:帮助中心

    查看更多 →

  • 背景及原理(服务编排)

    背景及原理(服务编排) AstroZero的服务编排,支持对逻辑判断组件、数据处理组件,以及脚本、子服务编排、商业对象等进行可视化组合编排,实现丰富的业务功能。 了解服务编排 在传统的开发中程序员一般是基于代码进行开发,程序员需要学习内容较多,开发效率相对低一些,开发门槛也高。A

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 构造规范请求。 将待发送的请求内容按照与API网关(即API管理)后台约定的规则组装,确保客户端签名、API网关后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到H

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    自动建表原理介绍 CDM 将根据源端的字段类型进行默认规则转换成目的端字段类型,并在目的端建数据表。 自动建表时的字段类型映射 CDM在 数据仓库 服务(Data Warehouse Service,简称DWS)中自动建表时,DWS的表与源表的字段类型映射关系如图1所示。例如使用CDM

    来自:帮助中心

    查看更多 →

  • FederatedHPA工作原理

    展出的Pod调度到具有更多资源的集群,以解决单个集群的资源限制,提高故障发生时的恢复能力。 FederatedHPA工作原理 FederatedHPA的工作原理如图1,实现流程如下: HPA Controller通过API定期查询工作负载的指标数据。 karmada-apiser

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 构造规范请求。 将待发送的请求内容按照与API网关(即API管理)后台约定的规则组装,确保客户端签名、API网关后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到H

    来自:帮助中心

    查看更多 →

  • 产品架构和功能原理

    行导入命令将数据恢复到目标数据库。 实时同步基本原理 图4 实时同步原理 实时同步功能实现源数据库和目标数据库的数据长期同步,主要用于OLTP到OLAP、OLTP到大数据组件的数据实时同步。全量和增量的数据同步和实时迁移的技术原理基本一致,但是基于不同的业务使用场景,两个功能还是有些差异。

    来自:帮助中心

    查看更多 →

  • HDFS基本原理

    HDFS基本原理 HDFS是Hadoop的分布式文件系统(Hadoop Distributed File System),实现大规模数据可靠的分布式读写。HDFS针对的使用场景是数据读写具有“一次写,多次读”的特征,而数据“写”操作是顺序写,也就是在文件创建时的写入或者在现有文件

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了