hashmap的实现原理 更多内容
  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 数据迁移进阶实践

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 父主题: 关键操作指导

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 关键操作指导

    来自:帮助中心

    查看更多 →

  • 实现投票

    在公共组中添加用户 “当前泳道”方式是通过指定泳道工作队列实现。 “名称和表达式”方式是通过设置“参与者”类型为“组”,并指定组(公共组)实现。 通过“当前泳道”或“名称和表达式”方式,将需要进行投票操作用户加入到用户任务接收人中,再将“审批类型”选择为“会签:每个分配

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APIC收到请求后,执行1~3,计算签名。 将3中生成签名与5中生成签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M及以下请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与APIC使用相同请求规范,可以确

    来自:帮助中心

    查看更多 →

  • 产品架构和功能原理

    ,保证数据完整性和一致性。 第三阶段:增量数据迁移。全量任务结束后,增量迁移任务启动,此时会从全量开始增量数据持续解析转换和回放,直到追平当前增量数据。 第四阶段:为了防止触发器、事件在迁移阶段对于数据操作,在结束任务阶段再迁移触发器、事件。 全量数据迁移底层模块主要原理:

    来自:帮助中心

    查看更多 →

  • 异地双活原理介绍

    一个数据中心正常运行时,可以通过业务层调度将故障区域业务切换到正常区域,因为配置了异地双活,您可以在数据中心运行正常区域继续处理数据。在业务不中断前提下实现故障场景下业务快速恢复,保证了故障场景下业务连续性。 配置异地双活功能具体操作请参见搭建双活关系。 父主题: 异地双活

    来自:帮助中心

    查看更多 →

  • GaussDB(for MySQL)备份原理

    Store节点存储数据信息。 图1 备份原理 如图1所示, GaussDB (for MySQL)实例备份是由计算层和存储层各自完成。 计算层主节点读取存储层Common Log节点日志信息,通过主节点备份到 对象存储服务 (OBS)中。 计算层主节点向存储层Slice Store节点发送命令备份数据信息,通过Slice

    来自:帮助中心

    查看更多 →

  • HDFS基本原理

    HDFS基本原理 HDFS是Hadoop分布式文件系统(Hadoop Distributed File System),实现大规模数据可靠分布式读写。HDFS针对使用场景是数据读写具有“一次写,多次读”特征,而数据“写”操作是顺序写,也就是在文件创建时写入或者在现有文件

    来自:帮助中心

    查看更多 →

  • MemArtsCC基本原理

    常需要等待数据而拖慢任务执行。因此,计算侧需要一个高速缓存层来消除计算集群和OBS之间数据访问鸿沟。为了解决这个问题,提出MemArts分布式客户端缓存,MemArts部署在计算侧VM中,通过智能预取OBS上数据来加速计算任务执行。 图1 MemArtsCC结构图 表1

    来自:帮助中心

    查看更多 →

  • Doris基本原理

    和被更新数据进行标记删除,同时将新数据写入新文件。在查询时,所有被标记删除数据都会在文件级别被过滤,读取出数据就都是最新数据,消除了读时合并中数据聚合过程,并且能够在很多情况下支持多种谓词下推。因此在许多场景都能带来比较大性能提升,尤其是在有聚合查询情况下。 Duplicate模型

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    API网关收到请求后,执行1~3,计算签名。 将3中生成签名与5中生成签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M及以下请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与API网关使用相同请求规范,可以

    来自:帮助中心

    查看更多 →

  • 实现过程

    获取座席事件(getAgentEvent) 请求方法:GET 请求url:https://ip:port/agentgateway/resource/agentevent/{agentid} 请参考轮询方式获取单座席事件 如何发送PUTHTTP请求 请参考MainTest.java中 /** * Send

    来自:帮助中心

    查看更多 →

  • 转到实现

    转到实现 语言服务还支持通过按“Ctrl+Alt+B”跳转到符号实现。对于接口,这显示了该接口所有实现者,对于抽象方法,这显示了该方法所有具体实现。 还可以通过Peek视图使用此功能,该视图显示在当前编辑器中,因此您不需要切换上下文。要在Peek视图中查看方法实现,右键单

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    API网关收到请求后,执行1~3,计算签名。 将3中生成签名与5中生成签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M及以下请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与API网关使用相同请求规范,可以

    来自:帮助中心

    查看更多 →

  • 只读落后自愈技术原理

    只读节点读取redo日志进行缓存数据更新,对应redo日志lsn,称为visible lsn,表示只读节点能读取数据页最大lsn。对于主节点来说,每更新或者插入一条数据产生最新redo日志lsn为flush_to_disk_lsn,表示主节点能访问数据页最大lsn。只读延迟其实就是只读节点visible

    来自:帮助中心

    查看更多 →

  • 背景及原理(服务编排)

    stroZero服务编排功能,类似于编程中一段有流程、条件处理、判断逻辑程序。这段程序有输入参数和输出参数、可以独立成为一个对外调用方法。同时,在程序内部,也可以调用其他方法。 AstroZero中服务编排是将原来基于代码编程改变为用图形化,拖拉拽方式去编程。如图1所

    来自:帮助中心

    查看更多 →

  • Spark基本原理

    会给数据密集型工作流带来大量IO开销。而对于RDD来说,它只有一套受限制接口,仅支持粗粒度更新,例如map,join等等。通过这种方式,Spark只需要简单记录建立数据转换操作日志,而不是完整数据集,就能够提供容错性。这种数据转换链记录就是数据集溯源。由于并行

    来自:帮助中心

    查看更多 →

  • Hue基本原理

    过界面图形化方式查看ZooKeeper。 有关Hue详细信息,请参见:http://gethue.com/。 Hue结构 Hue是建立在Django Python(开放源代码Web应用框架)Web框架上Web应用程序,采用了MTV(模型M-模板T-视图V)软件设计模式。

    来自:帮助中心

    查看更多 →

  • Storm基本原理

    Storm核心数据结构,是消息传递基本单元,不可变Key-Value对,这些Tuple会以一种分布式方式进行创建和处理。 Stream Storm关键抽象,是一个无边界连续Tuple序列。 Topology 在Storm平台上运行一个实时应用程序,由各个组件(Component)组成一个DAG(Directed

    来自:帮助中心

    查看更多 →

  • Flink基本原理

    精确一次语义:FlinkCheckpoint和故障恢复能力保证了任务在故障发生前后应用状态一致性,为某些特定存储支持了事务型输出功能,即使在发生故障情况下,也能够保证精确一次输出。 丰富时间语义 时间是流处理应用重要组成部分,对于实时流处理应用来说,基于时间语义窗口聚合、检

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了