弹性负载均衡 ELB

华为云弹性负载均衡( Elastic Load Balance)将访问流量自动分发到多台云服务器,扩展应用系统对外的服务能力,实现更高水平的应用容错

 
 

    负载均衡转发工作原理 更多内容
  • 工作原理

    ,如已配置OBS服务, 云审计 服务将事件转存至OBS桶中。用户也可以通过云审计服务的事件列表查看事件文件。云审计服务工作原理示意如图1所示。 图1 云审计服务工作原理示意图

    来自:帮助中心

    查看更多 →

  • 工作原理

    工作原理 当用户访问使用CDN服务的网站时,本地DNS 服务器 通过CNAME方式将最终 域名 请求重定向到CDN服务。CDN通过一组预先定义好的策略(如内容类型、地理区域、网络负载状况等),将当时能够最快响应用户的CDN节点IP地址提供给用户,使用户可以以最快的速度获得网站内容。使用CDN后的HTTP请求处理流程如下。

    来自:帮助中心

    查看更多 →

  • 迁移工作原理

    迁移工作原理 概述 迁移流程 数据识别与准备 数据迁移 数据安全与完整性保障

    来自:帮助中心

    查看更多 →

  • 路由概述

    更新。 在流量访问集群时,首先被已创建的负载均衡实例转发到集群内部的Nginx组件,然后Nginx组件再根据转发规则将其转发至对应的各个工作负载。 图5 Nginx Ingress Controller工作原理 Ingress支持的Service类型 由于ELB Ingress和社区开源的Nginx

    来自:帮助中心

    查看更多 →

  • 设备孪生工作原理

    设备孪生工作原理 边缘节点纳管后,会在边缘节点上安装Edge Agent,其中终端设备管理相关组件如下所示。 EdgeHub:WebSocket客户端,包括同步云端资源更新、报告边缘节点和终端设备信息到云端等功能。 DeviceTwin:设备孪生,负责存储终端设备状态并将设备状态同步到云端。

    来自:帮助中心

    查看更多 →

  • 设备孪生工作原理

    设备孪生工作原理 边缘节点纳管后,会在边缘节点上安装Edge Agent,其中终端设备管理相关组件如下所示。 EdgeHub:WebSocket客户端,包括同步云端资源更新、报告边缘节点和终端设备信息到云端等功能。 DeviceTwin:设备孪生,负责存储终端设备状态并将设备状态同步到云端。

    来自:帮助中心

    查看更多 →

  • MCI概述

    MCI的工作原理 MCI的功能主要通过请求转发执行器MCI Controller实现。MCI Controller部署在集群联邦控制面,实时监控资源对象的变化,解析MCI对象定义的规则并负责将请求转发到相应的后端Service。 图2 MCI Controller工作原理 MCI

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 APP认证流程 构造规范请求。 将待发送的请求内容按照与APIC后台约定的规则组装,确保客户端签名、APIC后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到HTT

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 构造规范请求。 将待发送的请求内容按照与API网关(即API管理)后台约定的规则组装,确保客户端签名、API网关后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到H

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 CCE支持多种工作负载伸缩方式,策略对比如下: 表1 弹性伸缩策略对比 伸缩策略 HPA策略 CronHPA策略 CustomedHPA策略 VPA策略 AHPA策略 策略介绍 Kubernetes中实现POD水平自动伸缩的功能,即Horizontal Pod Autoscaling。

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APP认证工作原理 构造规范请求。 将待发送的请求内容按照与API网关(即API管理)后台约定的规则组装,确保客户端签名、API网关后台认证时使用的请求内容一致。 使用规范请求和其他信息创建待签字符串。 使用AK/SK和待签字符串计算签名。 将生成的签名信息作为请求消息头添加到H

    来自:帮助中心

    查看更多 →

  • FederatedHPA工作原理

    tedHPA策略扩展工作负载Pod数量后,配置调度策略将扩展出的Pod调度到具有更多资源的集群,以解决单个集群的资源限制,提高故障发生时的恢复能力。 FederatedHPA工作原理 FederatedHPA的工作原理如图1,实现流程如下: HPA Controller通过API定期查询工作负载的指标数据。

    来自:帮助中心

    查看更多 →

  • 南北向MCS概述

    南北向M CS 工作原理 南北向MCS的功能主要通过请求转发执行器MCS Controller实现。MCS Controller部署在集群联邦控制面,实时监控资源对象的变化,解析MCS对象定义的规则并负责将请求转发到相应的后端Service。 图1 南北向MCS工作原理 MCS Co

    来自:帮助中心

    查看更多 →

  • NGINX Ingress控制器

    Kubernetes通过kube-proxy服务实现了Service的对外发布及负载均衡,它的各种方式都是基于传输层实现的。在实际的互联网应用场景中,不仅要实现单纯的转发,还有更加细致的策略需求,如果使用真正的负载均衡器更会增加操作的灵活性和转发性能。 基于以上需求,Kubernetes引入了资源对象I

    来自:帮助中心

    查看更多 →

  • 修改GaussDB(for MySQL)代理的路由模式

    路由模式的工作原理 GaussDB (for MySQL)数据库代理支持权重负载、负载均衡的路由模式,可根据需要配置不同的路由模式。 权重负载:根据设置的读权重比例分发读请求。 负载均衡:根据数据库节点的活跃连接数情况进行读请求分发,将读请求分发到活跃连接数较少的节点上。负载均衡模式不需要修改权重。

    来自:帮助中心

    查看更多 →

  • 修改TaurusDB代理的路由模式

    式。 路由模式的工作原理 TaurusDB数据库代理支持权重负载、负载均衡的路由模式,可根据需要配置不同的路由模式。 权重负载:根据设置的读权重比例分发读请求。 负载均衡:根据数据库节点的活跃连接数情况进行读请求分发,将读请求分发到活跃连接数较少的节点上。负载均衡模式不需要修改权重。

    来自:帮助中心

    查看更多 →

  • CronFederatedHPA工作原理

    CronFederatedHPA工作原理 CronFederatedHPA的工作原理如图1。创建CronFederatedHPA策略时,可以设定一个具体的时间,基于设定的时间调整HPA策略的最大和最小Pod数,也可以直接定时调整工作负载中的Pod数量。 图1 CronFederatedHPA工作原理 单独使用CronFederatedHPA

    来自:帮助中心

    查看更多 →

  • 运维中心负载均衡功能介绍

    监听。 转发策略依赖SLB监听,比例关系为1:1。 灰度服务依赖转发策略,一个转发策略实例可以对应多个灰度服务,1个灰度服务只能对应一个转发策略实例。 工作原理 客户端向应用程序发出请求。 负载均衡实例中的监听接收与配置的协议和端口匹配的请求。 监听再根据配置将请求转发至相应的后

    来自:帮助中心

    查看更多 →

  • 运行时引擎负载均衡功能介绍

    监听。 转发策略依赖SLB监听,比例关系为1:1。 灰度服务依赖转发策略,一个转发策略实例可以对应多个灰度服务,1个灰度服务只能对应一个转发策略实例。 工作原理 客户端向应用程序发出请求。 负载均衡实例中的监听接收与配置的协议和端口匹配的请求。 监听再根据配置将请求转发至相应的后

    来自:帮助中心

    查看更多 →

  • LVS负载均衡方式

    LVS(Linux virtual server):为linux虚拟服务器,是一个虚拟的服务器集群系统。LVS简单工作原理为用户请求LVS VIP,LVS根据转发方式和算法,将请求转发给后端服务器,后端服务器接收到请求,返回给用户。LVS组网图如图1所示。 图1 组网图 表1 各类IP信息

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了