弹性负载均衡 ELB

华为云弹性负载均衡( Elastic Load Balance)将访问流量自动分发到多台云服务器,扩展应用系统对外的服务能力,实现更高水平的应用容错

 
 

    负载均衡原理及应用场景 更多内容
  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 数据迁移进阶实践

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 关键操作指导

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 父主题: 关键操作指导

    来自:帮助中心

    查看更多 →

  • KrbServer及LdapServer基本原理

    KrbServerLdapServer基本原理 KrbServerLdapServer简介 为了管理集群中数据与资源的访问控制权限,推荐安装安全模式集群。在安全模式下,客户端应用程序在访问集群中的任意资源之前均需要通过身份认证,建立安全会话链接。 MRS 通过KrbServer为

    来自:帮助中心

    查看更多 →

  • 迁移作业原理

    迁移作业原理 数据迁移模型 CDM 数据迁移时,简化的迁移模型如图1所示。 图1 CDM数据迁移模型 CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。

    来自:帮助中心

    查看更多 →

  • 增量迁移原理介绍

    增量迁移原理介绍 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 MongoDB/DDS增量迁移 父主题: 进阶实践

    来自:帮助中心

    查看更多 →

  • 背景和原理(对象)

    背景和原理(对象) AstroZero提供的数据对象(Object)定义功能,对应传统方式开发业务系统中的创建数据库表。每个Object对应一张数据库表,用于保存业务系统需要的配置数据和业务数据。 对象用于存储组织或者业务特有的数据,可理解为数据库中的数据表(逻辑表,系统实际存储

    来自:帮助中心

    查看更多 →

  • 迁移作业原理

    迁移作业原理 数据迁移模型 CDM数据迁移时,简化的迁移模型如图1所示。 图1 CDM数据迁移模型 CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。

    来自:帮助中心

    查看更多 →

  • Hive CBO原理介绍

    Hive CBO原理介绍 Hive CBO原理介绍 CBO,全称是Cost Based Optimization,即基于代价的优化器。 其优化目标是: 在编译阶段,根据查询语句中涉及到的表和查询条件,计算出产生中间结果少的高效join顺序,从而减少查询时间和资源消耗。 Hive中实现CBO的总体过程如下:

    来自:帮助中心

    查看更多 →

  • 节点伸缩原理

    节点伸缩原理 HPA是针对Pod级别的,可以根据负载指标动态调整副本数量,但是如果集群的资源不足,新的副本无法运行的情况下,就只能对集群进行扩容。 CCE集群弹性引擎是Kubernetes提供的集群节点弹性伸缩组件,根据Pod调度状态资源使用情况对集群的节点进行自动扩容缩容,同

    来自:帮助中心

    查看更多 →

  • MCI概述

    问的后端Service端口等。 MCI Controller监控到MCI对象发生变化,会根据MCI中定义的规则,在ELB侧重新配置监听器以及后端 服务器 路由。 当用户进行访问时,流量根据ELB中配置的转发策略被转发到对应的后端Service关联的各个工作负载。 父主题: 多集群Ingress

    来自:帮助中心

    查看更多 →

  • 负载均衡

    负载均衡 负载均衡作用在客户端,是高并发、高可用系统必不可少的关键组件,目标是尽力将网络流量平均分发到多个服务器上,以提高系统整体的响应速度和可用性。 Java Chassis的负载均衡作用于微服务消费者,需要微服务应用集成负载均衡模块,启用loadbalance处理链。 配置示例如下:

    来自:帮助中心

    查看更多 →

  • 负载均衡

    负载均衡 负载均衡作用在客户端,是高并发、高可用系统必不可少的关键组件,目标是尽力将网络流量平均分发到多个服务器上,以提高系统整体的响应速度和可用性。 Java Chassis的负载均衡作用于微服务消费者,需要微服务应用集成负载均衡模块,启用loadbalance处理链。 配置示例如下:

    来自:帮助中心

    查看更多 →

  • 负载均衡

    负载均衡 在更新流量策略内容时,可选择是否开启。 在微服务场景下,负载均衡一般和服务配合使用,每个服务都有多个对等的服务实例。 服务发现负责从服务名中解析一组服务实例的列表,负载均衡负责从中选择一个实例。为目标服务配置满足业务要求的负载均衡策略,控制选择后端服务实例。 父主题: 流量策略

    来自:帮助中心

    查看更多 →

  • 负载均衡

    负载均衡 查询集群支持的ELBV3负载均衡器 打开或关闭ES负载均衡器 ES监听器配置 获取该esELB的信息,以及页面需要展示健康检查状态 更新ES监听器 查询证书列表 父主题: API

    来自:帮助中心

    查看更多 →

  • 级联删除负载均衡器及关联EIP

    级联删除负载均衡关联EIP 功能介绍 删除负载均衡器且级联删除其下子资源(删除负载均衡器及其绑定的监听器、后端服务器等一系列资源)。以及根据需要删除或解绑后端服务器组和LB关联的EIP。 调用方法 请参见如何调用API。 URI POST /v3/{project_id}/e

    来自:帮助中心

    查看更多 →

  • Doris冷热分离介绍

    量的资源浪费。 本章节仅适用于MRS 3.3.1 之后版本。 原理介绍 Apache Doris 2.0版本推出了冷热数据分层功能,用户可以使用冷热分层功能将数据从本地下沉到对象存储中,如图1所示。 图1 冷热数据分层功能原理 OBS对象存储支持海量数据存储,并提供安全可靠的、

    来自:帮助中心

    查看更多 →

  • 南北向MCS概述

    Controller支持在同一个ELB实例(即同一IP)下绑定多个监听器端口,其工作原理如图1,实现流程如下: 部署人员在集群联邦控制面创建工作负载,并为其配置Service对象。 部署人员在集群联邦控制面创建M CS 对象,配置关联的负载均衡器以及访问的后端Service端口等。 MCS Controller监控到M

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • HBase基本原理

    位到具体的Region。元数据表包括“hbase:meta”表,用于记录用户表的Region信息,例如,Region位置、起始RowKey结束RowKey等信息。 元数据表和用户表的映射关系如图 元数据表和用户表的映射关系所示。 图4 元数据表和用户表的映射关系 数据操作流程 HBase数据操作流程如图

    来自:帮助中心

    查看更多 →

  • Hive基本原理

    与HQL相关信息,请参考HQL 语言手册。 图3为Hive的结构简图。 Metastore:对表,列和Partition等的元数据进行读写更新操作,其下层为关系型数据库。 Driver:管理HQL执行的生命周期并贯穿Hive任务整个执行期间。 Compiler:编译HQL并将其

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了