apache 多主机头 更多内容
  • Alluixo在HA模式下出现Does not contain a valid host:port authority报错

    authority的报错。 原因分析 org.apache.hadoop.security.SecurityUtil.buildDTServiceName不支持在uri中填写多个alluxiomaster的地址。 处理步骤 使用alluxio:///或者alluxio://<AlluxioMaste

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    使用具有任务查看权限的用户登录 FusionInsight Manager,选择“集群 > 服务 > Yarn > ResourceManager()”进入Web界面后查看任务执行状态。 图2 ResourceManager Web UI页面 查看MapReduce日志获取应用运行情况

    来自:帮助中心

    查看更多 →

  • 自定义函数

    。open函数及close函数可选。如果需要UDTF返回列,只需要将返回值声明成Tuple或Row即可。若使用Row,需要重载getResultType声明返回的字段类型。 编写代码示例 import org.apache.flink.api.common.typeinfo.TypeInformation;

    来自:帮助中心

    查看更多 →

  • 自定义函数

    。open函数及close函数可选。如果需要UDTF返回列,只需要将返回值声明成Tuple或Row即可。若使用Row,需要重载getResultType声明返回的字段类型。 编写代码示例 import org.apache.flink.api.common.typeinfo.TypeInformation;

    来自:帮助中心

    查看更多 →

  • 如何配置HBase双读功能

    Admin接口、实时写入接口只会访问集群。所以集群故障后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 HBase双读支持以下两种方式设置备集群的相关配置: 在“hbase-dual.xml”中新增备集群的相关配置。 将备集群相关配置设置到HBa

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    使用具有任务查看权限的用户登录FusionInsight Manager,单击“集群 > 待操作集群的名称 > 服务 > Yarn > ResourceManager()”进入Web界面后查看任务执行状态。 图2 ResourceManager Web UI页面 查看MapReduce日志获取应用运行情况

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    kinit 创建的用户 新创建的用户需要修改密码,更改密码后重新kinit登录。 普通模式(未开启kerberos认证)无需执行kinit命令。 服务场景下,在source bigdata_env之后,请先source Spark服务的component_env,再去source Hudi的component_env。

    来自:帮助中心

    查看更多 →

  • 工程结构

    工程结构 工程的主要目录结构如下: 图1 工程目录结构 Main.java 为函数的入口,在main函数中需要配置三个参数:1.访问的函数名称 2.登录用户账户 3.登录用户密码 如图 args = new String[] {"WEB_CallSiteAPI","api","Change_Me"},

    来自:帮助中心

    查看更多 →

  • 迁移HBase索引数据

    <path/for/newData>:指的是新集群保存源数据的路径。例如,/user/hbase/t1。 其中,ActiveNameNodeIP是新集群中NameNode节点的IP地址。 例如,hadoop distcp /user/hbase/t1 hdfs://192.168.40.2:9820/user/hbase/t1

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    使用具有任务查看权限的用户登录FusionInsight Manager,单击“集群 > 待操作集群的名称 > 服务 > Yarn > ResourceManager()”进入Web界面后查看任务执行状态。 图2 ResourceManager Web UI页面 查看MapReduce日志获取应用运行情况

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 自定义函数仅能在独享队列中使用,不支持在共享队列中使用。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

  • HBase本地二级索引介绍

    会晚于用户数据被删除。 HBase表启动容灾之后,集群新建二级索引,索引表变更不会自动同步到备集群。要实现该容灾场景,必须执行以下操作: 在主表创建二级索引之后,需要在备集群使用相同方法创建结构、名称完全相同的二级索引。 在集群手动将索引列族(默认是d)的REPLICATION_SCOPE设置为1。

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar读写DIS开发指南

    用户自定义的程序包 自定义的程序包 类 指定加载的Jar包类名,如FlinkDisToDisExample。 默认:根据Jar包文件的Manifest文件指定。 指定:必须输入“类名”并确定类参数列表(参数间用空格分隔) 说明: 当类属于某个包时,类路径需要包含完整包路径,例如:packagePath

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar连接开启SASL

    创建Flink Jar作业,在应用程序、其他依赖文件选择步骤3导入Flink Jar,并指定类。 主要参数的填写说明: 所属队列:选择Flink Jar作业运行的队列。 应用程序:自定义的程序包 类:指定 类名:输入类名并确定类参数列表(参数间用空格分隔)。 其他依赖文件:自定义的

    来自:帮助中心

    查看更多 →

  • 配置Hive列加密功能

    配置Hive列加密功能 操作场景 Hive支持对表的某一列或者列进行加密;在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列的数据加密。只支持对存储在HDFS上的TextFile和SequenceFile文件格式的Hive表进行列加密,不支持视图以及Hive

    来自:帮助中心

    查看更多 →

  • HSS更新Apache Log4j2 远程代码执行漏洞

    0-beat9 <= Apache Log4j 2.x < 2.16.0(2.12.2 版本不受影响) 已知受影响的应用及组件:spring-boot-starter-log4j2/Apache Solr/Apache Flink/Apache Druid 安全版本:Apache Log4j

    来自:帮助中心

    查看更多 →

  • 在Apache服务器上安装国密标准SSL证书

    Apache 服务器 上安装国密标准SSL证书 本文以CentOS 7操作系统中的Apache 2.4.46服务器为例介绍国密标准(SM2)SSL证书的安装步骤,您在安装国密标准证书时可以进行参考。证书安装好后,您的Web服务器才能支持SSL通信,实现通信安全。 由于服务器系统版本

    来自:帮助中心

    查看更多 →

  • DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)?

    DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)? 不存在。 因为DLI没有启动spark.acls.enable配置项,所以不涉及Apache Spark 命令注入漏洞(CVE-2022-33891)。 父主题: 隐私安全

    来自:帮助中心

    查看更多 →

  • Apache containerd安全漏洞公告(CVE-2020-15257)

    Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理

    来自:帮助中心

    查看更多 →

  • 如何配置HBase双读功能

    Admin接口、实时写入接口只会访问集群。所以集群故障后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 HBase双读支持以下两种方式设置备集群的相关配置: 在“hbase-dual.xml”中新增备集群的相关配置。 将备集群相关配置设置到HBa

    来自:帮助中心

    查看更多 →

  • 自定义函数

    UDTF:自定义表值函数,支持一个或多个输入参数,可返回多行列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 自定义函数仅能在独享队列中使用,不支持在共享队列中使用。 POM依赖 <dependency> <groupId>org.apache.flink</groupId>

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了