apache配置 更多内容
  • 批量写入Hudi表

    择合适的分区方式,接下来将详细介绍Hudi如何配置各种分区类型。 多级分区 多级分区即指定多个字段为分区键,需要注意的配置项: 配置项 说明 hoodie.datasource.write.partitionpath.field 配置为多个分区字段,例如:p1,p2,p3。 hoodie

    来自:帮助中心

    查看更多 →

  • Tomcat安装

    安全组入方向已放开8080端口。 操作步骤 软件安装。 执行以下命令安装Java。 dnf install java-1.8.0-openjdk 执行如下命令验证是否安装成功。 java -version 执行如下命令安装Tomcat。 dnf install tomcat Tomcat会被安装到“/usr/share/tomcat”目录。

    来自:帮助中心

    查看更多 →

  • 基于Tomcat构建Java web环境(Huawei Cloud EulerOS 2.0)

    服务器 ,是Apache软件基金会项目中的一个核心项目,是一款比较流行的web应用服务器。本教程介绍如何在HCE 2.0上安装部署Tomcat。 准备工作 准备一台E CS ,并分配公网IP或者弹性公网IP(EIP)。 安全组入方向已放开8080端口。 操作步骤 软件安装。 执行以下命令安装Java。

    来自:帮助中心

    查看更多 →

  • 多级嵌套子查询以及混合Join的SQL调优

    sql 在执行SQL语句前,请使用 MRS 集群管理员用户修改内存大小配置。 登录 FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”。 单击“全部配置”,并搜索“SPARK_DRIVER_MEMORY”。 修改参数值

    来自:帮助中心

    查看更多 →

  • 执行join操作时localtask启动失败

    会导致启动localtask失败。 解决办法 进入Hive服务配置页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Hive > 服务配置”,单击“基础配置”下拉菜单,选择“全部配置”。 如果集群详情页面没有“组件管理”页签,请先完成IAM用户同

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar写入数据到OBS开发指南

    数据处理后写入到OBS,具体参数配置请根据实际环境修改。 环境准备 已安装配置IntelliJ IDEA等开发工具以及安装JDK和Maven。 Maven工程的pom.xml文件配置请参考JAVA样例代码(Flink 1.12)中“pom文件配置”说明。 确保本地编译环境可以正常访问公网。

    来自:帮助中心

    查看更多 →

  • Storm Flux开发指引

    架提交和部署拓扑的场景。本章中描述的jar包的具体版本信息请以实际情况为准。 Flux框架是Storm提供的提高拓扑部署易用性的框架。通过Flux框架,用户可以使用yaml文件来定义和部署拓扑,并且最终通过storm jar命令来提交拓扑的一种方式,极大地方便了拓扑的部署和提交,缩短了业务开发周期。

    来自:帮助中心

    查看更多 →

  • 如何在导入Hive表时指定输出的文件压缩格式?

    当前Hive支持以下几种压缩格式: org.apache.hadoop.io.compress.BZip2Codec org.apache.hadoop.io.compress.Lz4Codec org.apache.hadoop.io.compress.DeflateCodec org.apache.hadoop

    来自:帮助中心

    查看更多 →

  • DLI是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)?

    DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)? 不存在。 DLI没有启动spark.acls.enable配置项,所以不涉及Apache Spark 命令注入漏洞(CVE-2022-33891)。 该漏洞主要影响在启用了ACL(访问控制列表

    来自:帮助中心

    查看更多 →

  • Apache containerd安全漏洞公告(CVE-2020-15257)

    Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理

    来自:帮助中心

    查看更多 →

  • 新建Hadoop集群配置

    管理 > 连接管理 > 集群配置管理”。 在集群配置管理界面,选择“新建集群配置”,配置参数填写如下: 图2 新建集群配置 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。

    来自:帮助中心

    查看更多 →

  • 创建大量znode后ZooKeeper Server启动失败

    内不能完成同步过程,导致超时,各个ZooKeeper Server启动失败。 参考修改集群服务配置参数章节,进入ZooKeeper服务“全部配置”页面。不断尝试调大ZooKeeper配置文件“zoo.cfg”中的“syncLimit”和“initLimit”两参数值,直到ZooKeeperServer正常。

    来自:帮助中心

    查看更多 →

  • CTBase对接Ranger权限插件,提示权限不足

    (action=create) at org.apache.ranger.authorization.hbase.AuthorizationSession.publishResults(AuthorizationSession.java:278) at org.apache.ranger.authorization

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境配置文件中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce.admin.map.child.java.opts”和“mapreduce

    来自:帮助中心

    查看更多 →

  • 使用LZC压缩算法存储HDFS文件

    com/p/snappy/。 本章节适用于MRS 3.x及后续版本。 配置描述 为了使LZC压缩生效,需要在客户端的配置文件“core-site.xml”中(例如“客户端安装路径/HDFS/hadoop/etc/hadoop/”)配置如下参数。 表1 参数描述 参数 描述 默认值 io.compression

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    ler/jdk。 安装配置IDEA 用于开发Flink应用程序的工具。版本要求:2019.1或其他兼容版本。 安装Scala Scala开发环境的基本配置。版本要求:2.11.7。 安装Scala插件 Scala开发环境的基本配置。版本要求:1.5.4。 安装Maven 开发环

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    datasource.write.keygenerator.class 默认配置为org.apache.hudi.keygen.SimpleKeyGenerator ,也可以不配置配置为org.apache.hudi.keygen.ComplexKeyGenerator。 hoodie

    来自:帮助中心

    查看更多 →

  • Flink故障排除

    Manager与Application Master(简称AM)。 如果用户安装安全集群需要使用kerberos认证和security cookie认证。根据日志提示,发现配置文件中“security.kerberos.login.keytab :”配置项错误,未进行安全配置。 解决方法如下: 从MRS上下载用户的

    来自:帮助中心

    查看更多 →

  • SparkStreaming消费Kafka消息失败,提示“Error getting partition metadata”

    java:498) org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:762) org.apache.spark.deploy.SparkSubmit$

    来自:帮助中心

    查看更多 →

  • Hive任务执行中报栈内存溢出导致任务执行失败

    mb和mapreduce.map.java.opts的值: 进入Hive服务配置页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Hive > 服务配置”,单击“基础配置”下拉菜单,选择“全部配置”。 如果集群详情页面没有“组件管理”页签,请先完成IAM用户同

    来自:帮助中心

    查看更多 →

  • 提交Spark任务时报错“ClassNotFoundException”

    on: org.apache.phoenix.filter.SingleCQKeyValueComparisonFilter 原因分析 用户配置的默认路径不正确。 处理步骤 登录任意Master节点。 修改Spark客户端目录下的配置文件。 执行vim 客户端安装目录/Spark

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了