弹性负载均衡 ELB

华为云弹性负载均衡( Elastic Load Balance)将访问流量自动分发到多台云服务器,扩展应用系统对外的服务能力,实现更高水平的应用容错

 
 

    负载均衡原理及使用方法 更多内容
  • Hue基本原理

    QL/HQL语句;保存SQL/HQL语句并进行查询。 数据库展示,数据表展示。 支持多种Hadoop存储。 通过Metastore对数据库表和视图进行增删改查等操作。 如果使用IE浏览器访问Hue界面来执行HQL,由于浏览器存在的功能问题,将导致执行失败。建议使用兼容的浏览器,例如Google

    来自:帮助中心

    查看更多 →

  • Storm基本原理

    eeper,HDFS等)进行安全集成。 灵活的拓扑定义部署 使用Flux框架定义部署业务拓扑,在业务DAG发生变化时,只需对YAML DSL(domain-specific language)定义进行修改,无需重新编译打包业务代码。 与外部组件集成 支持与多种外部组件集成,

    来自:帮助中心

    查看更多 →

  • Flink基本原理

    Flink基本原理 Flink简介 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景

    来自:帮助中心

    查看更多 →

  • YARN基本原理

    YARN基本原理 为了实现一个Hadoop集群的集群共享、可伸缩性和可靠性,并消除早期MapReduce框架中的JobTracker性能瓶颈,开源社区引入了统一的资源管理框架YARN。 YARN是将JobTracker的两个主要功能(资源管理和作业调度/监控)分离,主要方法是创建

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    0)字段映射到DWS的SMALLINT。 图1 自动建表的字段映射 CDM 在Hive中自动建表时,Hive表与源表的字段类型映射关系参见表1、表2、表3表4。例如使用CDM将MySQL整库迁移到Hive,CDM在Hive上自动建表,会将Oracle的YEAR字段映射到Hive的DATE。 针

    来自:帮助中心

    查看更多 →

  • 可靠性功能

    ows MS CS 集群、Veritas VCS集群和CFS集群等。 详见“共享云硬盘使用方法”。 负载均衡 配合弹性负载均衡ELB服务,可以实现多BMS实例的负载均衡。 健康检查 通过弹性负载均衡ELB服务,可对BMS实例进行健康检查。详见“修改健康检查配置”。 跨AZ容灾 配合ELB服务,可以实现跨AZ的故障切换。

    来自:帮助中心

    查看更多 →

  • HBase基本原理

    位到具体的Region。元数据表包括“hbase:meta”表,用于记录用户表的Region信息,例如,Region位置、起始RowKey结束RowKey等信息。 元数据表和用户表的映射关系如图 元数据表和用户表的映射关系所示。 图4 元数据表和用户表的映射关系 数据操作流程 HBase数据操作流程如图

    来自:帮助中心

    查看更多 →

  • Hive基本原理

    与HQL相关信息,请参考HQL 语言手册。 图3为Hive的结构简图。 Metastore:对表,列和Partition等的元数据进行读写更新操作,其下层为关系型数据库。 Driver:管理HQL执行的生命周期并贯穿Hive任务整个执行期间。 Compiler:编译HQL并将其

    来自:帮助中心

    查看更多 →

  • Kafka基本原理

    可扩展性 当在Kafka集群中可通过增加Broker节点以提供更大容量时。新增的Broker会向ZooKeeper注册,而ProducerConsumer会及时从ZooKeeper感知到这些变化,并作出调整。 Kafka开源特性 可靠性 提供At-Least Once,At-Most

    来自:帮助中心

    查看更多 →

  • HetuEngine基本原理

    HetuEngine基本原理 HetuEngine简介 HetuEngine是自研高性能交互式SQL分析数据虚拟化引擎。与大数据生态无缝融合,实现海量数据秒级交互式查询;支持跨源跨域统一访问,使能 数据湖 内、湖间、湖仓一站式SQL融合分析。 HetuEngine结构 HetuEn

    来自:帮助中心

    查看更多 →

  • CarbonData基本原理

    CarbonData基本原理 CarbonData是一种新型的Apache Hadoop本地文件格式,使用先进的列式存储、索引、压缩和编码技术,以提高计算效率,有助于加速超过PB数量级的数据查询,可用于更快的交互查询。同时,CarbonData也是一种将数据源与Spark集成的高性能分析引擎。

    来自:帮助中心

    查看更多 →

  • CDL基本原理

    CDL基本原理 CDL简介 CDL(全称Change Data Loader)是一个基于Kafka Connect框架的实时数据集成服务。 CDL服务能够从各种OLTP数据库中捕获数据库的Data Change事件,并推送到kafka,再由sink connector推送到大数据生态系统中。

    来自:帮助中心

    查看更多 →

  • StarRocks基本原理

    StarRocks架构 StarRocks整体架构如下图所示,FE和BE节点可以水平无限扩展。 图1 StarRocks架构 表1 StarRocks节点角色说明 名称 说明 Client Application StarRocks兼容MySQL协议,支持标准SQL语法,用户可通过各类MySQL客户端和常用BI工具对接。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 CCE支持多种工作负载伸缩方式,策略对比如下: 表1 弹性伸缩策略对比 伸缩策略 HPA策略 CronHPA策略 CustomedHPA策略 策略介绍 Kubernetes中实现POD水平自动伸缩的功能,即Horizontal Pod Autoscaling。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    0)字段映射到DWS的SMALLINT。 图1 自动建表的字段映射 CDM在Hive中自动建表时,Hive表与源表的字段类型映射关系参见表1、表2、表3表4。例如使用CDM将MySQL整库迁移到Hive,CDM在Hive上自动建表,会将Oracle的YEAR字段映射到Hive的DATE。 针

    来自:帮助中心

    查看更多 →

  • 使用Annotation配置负载均衡类型的服务

    health-check-options"。 v1.19.16-r5以上 v1.21.8-r0以上 v1.23.6-r0以上 v1.25.2-r0以上 kubernetes.io/elb.health-check-option的使用方法如下: apiVersion: v1 kind: Service

    来自:帮助中心

    查看更多 →

  • mysqlbinlog工具使用方法

    mysqlbinlog工具使用方法 本章节介绍mysqlbinlog工具的使用方法,用于本地解析binlog。 binlog的基本组成单元是binlog_event,同时server是以二进制的格式写入binlog文件,所以如果想通过文本格式显示binlog内容,需要mysqlb

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    API网关收到请求后,执行1~3,计算签名。 将3中的生成的签名与5中生成的签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M以下的请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与API网关使用相同的请求

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    APIC收到请求后,执行1~3,计算签名。 将3中的生成的签名与5中生成的签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M以下的请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与APIC使用相同的请求规

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了