弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    客户端访问服务器的原理 更多内容
  • HBase基本原理

    定义Column数量和类型。HBase中表列非常稀疏,不同行个数和类型都可以不同。此外,每个CF都有独立生存周期(TTL)。可以只对行上锁,对行操作始终是原始。 Column 与传统数据库类似,HBase表中也有列概念,列用于表示相同类型数据。 RegionServer数据存储

    来自:帮助中心

    查看更多 →

  • Hive基本原理

    Hive基本原理 Hive是建立在Hadoop上 数据仓库 基础构架。它提供了一系列工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在Hadoop中大规模数据机制。Hive定义了简单类SQL查询语言,称为HQL,它允许熟悉SQL用户查询数据。H

    来自:帮助中心

    查看更多 →

  • Kafka基本原理

    Kafka基本原理 Kafka是一个分布式、分区、多副本消息发布-订阅系统,它提供了类似于JMS特性,但在设计上完全不同,它具有消息持久化、高吞吐、分布式、多客户端支持、实时等特性,适用于离线和在线消息消费,如常规消息收集、网站活性跟踪、聚合统计系统运营数据(监控数据

    来自:帮助中心

    查看更多 →

  • HetuEngine基本原理

    HetuEngine客户端,使用者通过客户端向服务端提交查询请求,然后将执行结果取回并展示。 HSBroker HetuEngine服务管理,用作计算实例资源管理校验,健康监控与自动维护等。 HSConsole 对外提供数据源信息管理,计算实例管理,自动化任务查看等功能可视化操作界面和RESTful接口。

    来自:帮助中心

    查看更多 →

  • CarbonData基本原理

    为了解决日益增长的数据量给driver带来压力与出现各种问题,现引入单独索引缓存 服务器 ,将索引从Carbon查询Spark应用侧剥离。所有的索引内容全部由索引缓存服务器管理,Spark应用通过RPC方式获取需要索引数据。这样,释放了大量业务侧内存,使得业务不会受集群规模影响而导致性能或者功能出现问题。

    来自:帮助中心

    查看更多 →

  • CDL基本原理

    ebalance能力,创建任务时指定task数量会在整个集群中CDLConnector实例之间做均衡,保证每个实例上运行task数量大致相同,如果某个CDLConnector实例异常或者节点宕机,该任务会在其它节点重新平衡task数量。 图1 TaskRebalance示意图

    来自:帮助中心

    查看更多 →

  • StarRocks基本原理

    设备上。但在逻辑上,一列数据可以看成是由相同类型元素构成一个数组, 一行数据所有列值在各自数组中按照列顺序排列,即拥有相同数组下标。数组下标是隐式,不需要存储。表中所有的行按照维度列,做多重排序,排序后位置就是该行行号。 索引 StarRocks通过前缀索引 (Prefix

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    0)字段映射到DWSSMALLINT。 图1 自动建表字段映射 CDM 在Hive中自动建表时,Hive表与源表字段类型映射关系参见表1、表2、表3及表4。例如使用CDM将MySQL整库迁移到Hive,CDM在Hive上自动建表,会将OracleYEAR字段映射到HiveDATE。

    来自:帮助中心

    查看更多 →

  • 背景及原理(服务编排)

    stroZero服务编排功能,类似于编程中一段有流程、条件处理、判断逻辑程序。这段程序有输入参数和输出参数、可以独立成为一个对外调用方法。同时,在程序内部,也可以调用其他方法。 AstroZero中服务编排是将原来基于代码编程改变为用图形化,拖拉拽方式去编程。如图1所

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    0)字段映射到DWSSMALLINT。 图1 自动建表字段映射 CDM在Hive中自动建表时,Hive表与源表字段类型映射关系参见表1、表2、表3及表4。例如使用CDM将MySQL整库迁移到Hive,CDM在Hive上自动建表,会将OracleYEAR字段映射到HiveDATE。

    来自:帮助中心

    查看更多 →

  • Spark基本原理

    要对数据或者日志更新进行备份来保障容错性。这样就会给数据密集型工作流带来大量IO开销。而对于RDD来说,它只有一套受限制接口,仅支持粗粒度更新,例如map,join等等。通过这种方式,Spark只需要简单记录建立数据转换操作日志,而不是完整数据集,就能够提供容错

    来自:帮助中心

    查看更多 →

  • Hue基本原理

    操作HDFS不同目录; 查询编辑器能够编写简单SQL,查询存储在Hadoop之上数据。例如HDFS,HBase,Hive。 用户可以方便地创建、管理、执行SQL,并且能够以Excel形式下载执行结果。 通过Hue可以在界面针对组件进行以下操作: HDFS: 查看、创建、管理、重命名、移动、删除文件/目录。

    来自:帮助中心

    查看更多 →

  • Storm基本原理

    如果在消息处理过程中有节点、进程等出现异常,提供重新部署该处理单元能力。 可靠消息保证 支持At-Least Once、At-Most Once、Exactly Once数据处理模式。 安全机制 提供基于Kerberos认证以及可插拔授权机制,提供支持SSLStorm UI以及Log Viewe

    来自:帮助中心

    查看更多 →

  • Flink基本原理

    步以及增量Checkpoint机制。 精确一次语义:FlinkCheckpoint和故障恢复能力保证了任务在故障发生前后应用状态一致性,为某些特定存储支持了事务型输出功能,即使在发生故障情况下,也能够保证精确一次输出。 丰富时间语义 时间是流处理应用重要组成部分

    来自:帮助中心

    查看更多 →

  • YARN基本原理

    和监视它们基础应用程序。在此上下文中,Application Master承担了以前TaskTracker一些角色,ResourceManager承担了JobTracker角色。 Application Master管理一个在YARN内运行应用程序每个实例。Application

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    API网关收到请求后,执行1~3,计算签名。 将3中生成签名与5中生成签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M及以下请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与API网关使用相同请求规范,可以

    来自:帮助中心

    查看更多 →

  • FederatedHPA工作原理

    当前Pod数与期望Pod数计算方法如下: 当前Pod数 = 所有集群中状态为ReadyPod数量 在计算期望Pod数时,HPA Controller会选择最近5分钟内计算所得Pod数最大值,以避免之前自动扩缩操作还未完成,就直接执行新扩缩情况。 期望Pod数 = 当前Pod数

    来自:帮助中心

    查看更多 →

  • 背景及原理(服务编排)

    stroZero服务编排功能,类似于编程中一段有流程、条件处理、判断逻辑程序。这段程序有输入参数和输出参数、可以独立成为一个对外调用方法。同时,在程序内部,也可以调用其他方法。 AstroZero中服务编排是将原来基于代码编程改变为用图形化,拖拉拽方式去编程。如图1所

    来自:帮助中心

    查看更多 →

  • 配置HSTS

    Security”头部。 如果客户端不支持HSTS功能,再次请求到CDN节点协议遵从客户端发起请求协议。 如果客户端支持HSTS功能,客户端将缓存“Strict-Transport-Security”头部。再次访问加速 域名 时,浏览器会自动将HTTP请求强制转换为HTTPS请求到CDN。

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    API网关收到请求后,执行1~3,计算签名。 将3中生成签名与5中生成签名进行比较,如果签名匹配,则处理请求,否则将拒绝请求。 APP签名仅支持Body体12M及以下请求签名。 步骤1:构造规范请求 使用APP方式进行签名与认证,首先需要规范请求内容,然后再进行签名。客户端与API网关使用相同请求规范,可以

    来自:帮助中心

    查看更多 →

  • APP认证工作原理

    1标准UTC时间格式:YYYYMMDDTHHMMSSZ。如果API发布到非RELEASE环境时,需要增加自定义环境名称。 客户端须注意本地时间与时钟服务器同步,避免请求消息头X-Sdk-Date值出现较大误差。 ROMA Connect除了校验X-Sdk-Date时间格

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了