弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    apache 多虚拟主机 更多内容
  • 什么是GeminiDB HBase兼容接口

    HBase协议严格遵循了HBase的语法和数据模型,因此用户使用Apache HBase的应用程序可以轻松地迁移至GeminiDB HBase。此外,GeminiDB HBase协议还提供了多种自动化管理和运维功能,如集群分钟级扩缩容、自动备份、故障检测和可用区容错等。同时用户无需过多参与运维和参数

    来自:帮助中心

    查看更多 →

  • 多区域客流分析技能

    区域客流分析技能 技能描述 面向智慧商超的客流统计技能。本技能使用深度学习算法,实时分析视频流,自动统计固定时间间隔的客流信息。 本技能支持: 根据业务需求划定区域,只统计固定区域内的客流,技能返回区域内客流的统计信息和坐标信息。 绘制客流统计线,对人形经过该线的人数进行统计,返回客流统计信息。

    来自:帮助中心

    查看更多 →

  • 配置主机名与IP地址的映射

    NetWeaver系统中的虚拟IP地址需要先绑定AS CS 主备节点的主机名,因为虚拟IP需要配置ASCS HA之后才能生效,暂时先不绑定给 虚拟主机 名,在安装完ASCS和ERS后再修改hosts文件,写入虚拟IP和虚拟主机名的对应关系。 将已配置过“/etc/hosts”文件传送给其他SAP HANA节点。 命令格式如下:

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 暂不支持通过python写UDF、UDTF、UDAF自定义函数。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

  • 配置Hive列加密功能

    配置Hive列加密功能 操作场景 Hive支持对表的某一列或者列进行加密;在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列加密。列加密只支持存储在HDFS上的TextFile和SequenceFile文件格式的表。Hive列加密不支持视图以及Hive

    来自:帮助中心

    查看更多 →

  • 自定义函数

    。open函数及close函数可选。如果需要UDTF返回列,只需要将返回值声明成Tuple或Row即可。若使用Row,需要重载getResultType声明返回的字段类型。 编写代码示例 import org.apache.flink.api.common.typeinfo.TypeInformation;

    来自:帮助中心

    查看更多 →

  • Spark2x多租户

    Spark2x租户 背景介绍 JD BCS erver主实例方案中,JDBCServer的实现使用YARN-Client模式,但YARN资源队列只有一个,为了解决这种资源局限的问题,引入了租户模式。 租户模式是将JDBCServer和租户绑定,每一个租户对应一个或多个JDBC

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight 支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 自定义函数

    。 UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 POM依赖 <dependency> <groupId>org.apache.flink</groupId> <artifa

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 支持的数据源

    单表同步:适用于数据入湖和数据上云场景下,表或文件级别的数据同步,支持的数据源请参见表/文件同步支持的数据源类型。 分库分表同步:适用于数据入湖和数据上云场景下,库多表同步场景,支持的数据源请参见分库分表同步支持的数据源类型。 整库迁移:适用于数据入湖和数据上云场景下,离线或自建数据库整体同步场景,支

    来自:帮助中心

    查看更多 →

  • 配置Hive列加密功能

    配置Hive列加密功能 操作场景 Hive支持对表的某一列或者列进行加密;在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列的数据加密。只支持对存储在HDFS上的TextFile和SequenceFile文件格式的Hive表进行列加密,不支持视图以及Hive

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    kinit 创建的用户 新创建的用户需要修改密码,更改密码后重新kinit登录。 普通模式(未开启kerberos认证)无需执行kinit命令。 服务场景下,在source bigdata_env之后,请先source Spark服务的component_env,再去source Hudi的component_env。

    来自:帮助中心

    查看更多 →

  • 在Apache服务器上安装国密标准SSL证书

    Apache 服务器 上安装国密标准SSL证书 本文以CentOS 7操作系统中的Apache 2.4.46服务器为例介绍国密标准(SM2)SSL证书的安装步骤,您在安装国密标准证书时可以进行参考。证书安装好后,您的Web服务器才能支持SSL通信,实现通信安全。 由于服务器系统版本

    来自:帮助中心

    查看更多 →

  • DLI是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)?

    DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)? 不存在。 DLI没有启动spark.acls.enable配置项,所以不涉及Apache Spark 命令注入漏洞(CVE-2022-33891)。 该漏洞主要影响在启用了ACL(访问控制列表

    来自:帮助中心

    查看更多 →

  • Apache containerd安全漏洞公告(CVE-2020-15257)

    Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理

    来自:帮助中心

    查看更多 →

  • 方案概述

    您在华为云上快速构建高可用Pulsar集群。Apache Pulsar 是 Apache 软件基金会的顶级项目,是下一代云原生分布式消息流平台,集消息、存储、轻量化函数式计算为一体,采用计算与存储分离架构设计,支持租户、持久化存储、机房跨区域数据复制,具有强一致性、高吞吐、低延时及高可扩展性等流数据存储特性。

    来自:帮助中心

    查看更多 →

  • 配置SAP NetWeaver的HA功能(分布式高可用部署)

    装完SAP NetWeaver实例后需要修改hosts文件,增加虚拟IP与虚拟主机的映射关系。 登录ASCS主备节点,执行以下命令,修改“/etc/hosts”文件。 vi /etc/hosts 将虚拟主机名对应的主机IP改为虚拟IP。 10.0.3.52 netweaver-0001

    来自:帮助中心

    查看更多 →

  • 流式写入Hudi表

    provider类需要用户自己开发。 “--allow-fetch-from-multiple-sources”表示开启源表写入。 “--allow-continuous-when-multiple-sources”表示开启源表持续写入,如果未设置所有源表写入一次后任务就会结束。 sourceCommon.properties

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了