弹性云服务器 ECS

 

弹性云服务器(Elastic Cloud Server)是一种可随时自助获取、可弹性伸缩的云服务器,帮助用户打造可靠、安全、灵活、高效的应用环境,确保服务持久稳定运行,提升运维效率

 
 

    apache 多虚拟主机 更多内容
  • 在Apache服务器上安装国密标准SSL证书

    Apache 服务器 上安装国密标准SSL证书 本文以CentOS 7操作系统中的Apache 2.4.46服务器为例介绍国密标准(SM2)SSL证书的安装步骤,您在安装国密标准证书时可以进行参考。证书安装好后,您的Web服务器才能支持SSL通信,实现通信安全。 由于服务器系统版本

    来自:帮助中心

    查看更多 →

  • DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)?

    DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)? 不存在。 因为DLI没有启动spark.acls.enable配置项,所以不涉及Apache Spark 命令注入漏洞(CVE-2022-33891)。 父主题: 隐私安全

    来自:帮助中心

    查看更多 →

  • Apache containerd安全漏洞公告(CVE-2020-15257)

    Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理

    来自:帮助中心

    查看更多 →

  • SAP HANA服务器配置

    启动 进行配置。 此处的IP地址为系统复制/心跳网络平面的IP地址。 配置主节点私有IP与主机名称映射的时候,在其后面追加一个 虚拟主机 名称,这个虚拟主机名称之后在安装SAP S/4HANA的时候会使用到。 登录SAP HANA备节点 云服务器 “hana002”中,编辑/etc/hosts文件,写入与SAP

    来自:帮助中心

    查看更多 →

  • 配置Hive列加密功能

    配置Hive列加密功能 操作场景 Hive支持对表的某一列或者列进行加密;在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列加密。列加密只支持存储在HDFS上的TextFile和SequenceFile文件格式的表。Hive列加密不支持视图以及Hive

    来自:帮助中心

    查看更多 →

  • 配置Hive列加密功能

    配置Hive列加密功能 操作场景 Hive支持对表的某一列或者列进行加密;在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列加密。列加密只支持存储在HDFS上的TextFile和SequenceFile文件格式的表。Hive列加密不支持视图以及Hive

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight 支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 实现Hive进程访问多ZooKeeper

    实现Hive进程访问ZooKeeper 功能简介 FusionInsight支持在同一个客户端进程内同时访问FusionInsight ZooKeeper和第三方的ZooKeeper,分别通过“testConnectHive”和“testConnectApacheZK”方法实现。

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 自定义函数仅能在独享队列中使用,不支持在共享队列中使用。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

  • 自定义函数

    。open函数及close函数可选。如果需要UDTF返回列,只需要将返回值声明成Tuple或Row即可。若使用Row,需要重载getResultType声明返回的字段类型。 编写代码示例 import org.apache.flink.api.common.typeinfo.TypeInformation;

    来自:帮助中心

    查看更多 →

  • 自定义函数

    。open函数及close函数可选。如果需要UDTF返回列,只需要将返回值声明成Tuple或Row即可。若使用Row,需要重载getResultType声明返回的字段类型。 编写代码示例 import org.apache.flink.api.common.typeinfo.TypeInformation;

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    kinit 创建的用户 新创建的用户需要修改密码,更改密码后重新kinit登录。 普通模式(未开启kerberos认证)无需执行kinit命令。 服务场景下,在source bigdata_env之后,请先source Spark服务的component_env,再去source Hudi的component_env。

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 自定义函数仅能在独享队列中使用,不支持在共享队列中使用。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 自定义函数仅能在独享队列中使用,不支持在共享队列中使用。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 自定义函数仅能在独享队列中使用,不支持在共享队列中使用。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

  • Spark2x多主实例

    “CLIENT_HOME”是指客户端路径。 主实例模式与非主实例模式两种模式的JD BCS erver接口相比,除连接方式不同外其他使用方法相同。由于Spark JDB CS erver是Hive中的HiveServer2的另外一个实现,其使用方法,请参见Hive官网:https://cwiki.apache.org/

    来自:帮助中心

    查看更多 →

  • 方案概述

    您在华为云上快速构建高可用Pulsar集群。Apache Pulsar 是 Apache 软件基金会的顶级项目,是下一代云原生分布式消息流平台,集消息、存储、轻量化函数式计算为一体,采用计算与存储分离架构设计,支持租户、持久化存储、机房跨区域数据复制,具有强一致性、高吞吐、低延时及高可扩展性等流数据存储特性。

    来自:帮助中心

    查看更多 →

  • 微服务引擎概述

    Engine”的微服务引擎专业版,也可以创建微服务引擎专享版。 微服务引擎专享版采用物理隔离的方式部署,租户独占微服务引擎。 微服务引擎专业版不支持可用区(AZ)。 微服务引擎专享版在创建时可以设置可用区(AZ)。 创建微服务引擎后,可用区不支持修改,请根据需要设置。 不支持创建跨CPU架构的微服务引擎专享版实例。

    来自:帮助中心

    查看更多 →

  • Flume对接OBS

    Flume是一个分布式的、可靠的和高可用的服务,用于收集、聚合以及移动大量日志数据,具体请参见Apache Flume。OBS在大数据场景中可以替代Hadoop系统中的HDFS服务。 注意事项 sink写同一文件 OBS和HDFS在一致性保证上是有差别的:HDFS租约机制可以保证并发

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了