华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api key原理 更多内容
  • Hue基本原理

    HRIFT/REST”接口与WebServer上的应用进行交互,如图1所示。 图1 Hue架构示意图 图1中各部分的功能说明如表1所示。 表1 结构图说明 名称 描述 Supervisor Process Supervisor负责WebServer上APP的进程管理:启动、停止、监控等。

    来自:帮助中心

    查看更多 →

  • Storm基本原理

    等功能。 易于扩展:CQL提供了拓展接口,以支持日益复杂的业务场景,用户可以自定义输入、输出、序列化、反序列化等功能来满足特定的业务场景 易于调试:CQL提供了详细的异常码说明,降低了用户对各种错误的处理难度。 关于Storm的架构和详细原理介绍,请参见:https://storm

    来自:帮助中心

    查看更多 →

  • Flink基本原理

    态信息,便于任何时间点的任务暂停和恢复。 Flink SQL Table API和SQL借助了Apache Calcite来进行查询的解析,校验以及优化,可以与DataStream和DataSet API无缝集成,并支持用户自定义的标量函数,聚合函数以及表值函数。简化数据分析、E

    来自:帮助中心

    查看更多 →

  • YARN基本原理

    ,追踪节点健康状况,管理日志和不同应用程序用到的附属服务(auxiliary service)。 ApplicationMaster(AM) 即图中的App Mstr,负责一个Application生命周期内的所有工作。包括:与RM调度器协商以获取资源;将得到的资源进一步分配给内

    来自:帮助中心

    查看更多 →

  • 背景及原理(服务编排)

    发现并解决问题。 服务编排测试通过、发布后,既可以直接被前端页面调用,也可以作为restful接口被第三方系统调用,也可以包装成公共接口后被调用。本节中主要是将服务编排包装成一个公共接口后,供页面调用,“管理设备”功能中涉及的业务逻辑,以及服务编排与脚本关系如表1下所示,详细操作方式及说明请参见创建业务逻辑。

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    自动建表原理介绍 自动建表时的字段类型映射 CDM 数据仓库 服务(Data Warehouse Service,简称DWS)中自动建表时,DWS的表与源表的字段类型映射关系如图1所示。例如使用CDM将Oracle整库迁移到DWS,CDM在DWS上自动建表,会将Oracle的NUMBER(3

    来自:帮助中心

    查看更多 →

  • 产品架构和功能原理

    行导入命令将数据恢复到目标数据库。 实时同步基本原理 图4 实时同步原理 实时同步功能实现源数据库和目标数据库的数据长期同步,主要用于OLTP到OLAP、OLTP到大数据组件的数据实时同步。全量和增量的数据同步和实时迁移的技术原理基本一致,但是基于不同的业务使用场景,两个功能还是有些差异。

    来自:帮助中心

    查看更多 →

  • 异地双活原理介绍

    异地双活原理介绍 GeminiDB Cassandra提供了异地双活功能,通过异地实例间数据的双向同步和业务灵活调度能力,实现了业务恢复和故障恢复解耦,保障了故障场景下业务的连续性。 异地双活是一种多活容灾架构的解决⽅案,即部署在不同数据中心的GeminiDB Cassandra

    来自:帮助中心

    查看更多 →

  • HDFS基本原理

    Node的选举。 HttpFS gateway HttpFS是个单独无状态的gateway进程,对外提供webHDFS接口,对HDFS使用FileSystem接口对接。可用于不同Hadoop版本间的数据传输,及用于访问在防火墙后的HDFS(HttpFS用作gateway)。 HDFS

    来自:帮助中心

    查看更多 →

  • Doris基本原理

    Row:即用户的一行数据。 Column: 用于描述一行数据中不同的字段。 Column可以分为两大类:Key和Value。从业务角度看,Key和Value可以分别对应维度列和指标列。从聚合模型的角度来说,Key列相同的行,会聚合成一行。其中Value列的聚合方式由用户在建表时指定。 Tablet&Partition

    来自:帮助中心

    查看更多 →

  • 删除大key分析记录

    shard String 大key所在的分片,仅在实例类型为集群时支持,格式为ip:port。 db Integer 大key所在的DB。 size Long Key的value大小。 unit String 表示key的单位。count:key的数量,byte:key的大小。 状态码: 400

    来自:帮助中心

    查看更多 →

  • 删除热key分析任务

    shard String 热key所在的分片,仅在实例类型为集群时支持,格式为ip:port。 db Integer 热key所在的DB。 size Long Key的value大小。 unit String 表示key的单位。count:key的数量,byte:key的大小。 freq Integer

    来自:帮助中心

    查看更多 →

  • Key的保存时间是多久?如何设置Key的过期时间?

    Key的保存时间是多久?如何设置Key的过期时间? Key的保存时间是多久? 如果没有设置过期Key,数据会一直存在。 如果设置了过期Key,过期Key的删除机制请参考过期Key扫描。 如果已经设置了过期Key,希望移除设定的过期时间,可使用Redis PERSIST命令。 如何设置过期Key?

    来自:帮助中心

    查看更多 →

  • DROP COLUMN ENCRYPTION KEY

    DROP COLUMN ENCRYPTION KEY 功能描述 删除一个列加密密钥(cek)。 注意事项 只有列加密密钥所有者或者被授予了DROP权限的用户有权限执行命令,系统管理员默认拥有此权限。 语法格式 1 DROP COLUMN ENCRYPTION KEY [ IF EXISTS

    来自:帮助中心

    查看更多 →

  • DROP COLUMN ENCRYPTION KEY

    对于密态特性来说,级联删除加密列属于危险操作,实际上都无法删除依赖于列加密密钥的加密列。 相关链接 ALTER COLUMN ENCRYPTION KEYCREATE COLUMN ENCRYPTION KEY 父主题: D

    来自:帮助中心

    查看更多 →

  • 自动建表原理介绍

    自动建表原理介绍 自动建表时的字段类型映射 CDM在数据仓库服务(Data Warehouse Service,简称DWS)中自动建表时,DWS的表与源表的字段类型映射关系如图1所示。例如使用CDM将Oracle整库迁移到DWS,CDM在DWS上自动建表,会将Oracle的NUMBER(3

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    工作负载伸缩原理 HPA工作原理 HPA(Horizontal Pod Autoscaler)是用来控制Pod水平伸缩的控制器,HPA周期性检查Pod的度量数据,计算满足HPA资源所配置的目标数值所需的副本数量,进而调整目标资源(如Deployment)的replicas字段。

    来自:帮助中心

    查看更多 →

  • 工作负载伸缩原理

    时间窗和扩缩容阈值等功能。 CronHPA提供HPA对象的兼容能力,您可以同时使用CronHPA与HPA。 CronHPA与HPA策略共同使用:CronHPA作用于HPA策略之上,用于定时调整HPA策略的实例数范围。 CronHPA策略单独使用:CronHPA 直接定时调整工作负载的Pod实例数。

    来自:帮助中心

    查看更多 →

  • CarbonData基本原理

    CarbonData基本原理 CarbonData是一种新型的Apache Hadoop本地文件格式,使用先进的列式存储、索引、压缩和编码技术,以提高计算效率,有助于加速超过PB数量级的数据查询,可用于更快的交互查询。同时,CarbonData也是一种将数据源与Spark集成的高性能分析引擎。

    来自:帮助中心

    查看更多 →

  • CDL基本原理

    CDL基本原理 CDL简介 CDL(全称Change Data Loader)是一个基于Kafka Connect框架的实时数据集成服务。 CDL服务能够从各种OLTP数据库中捕获数据库的Data Change事件,并推送到kafka,再由sink connector推送到大数据生态系统中。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了