apache文件服务器配置 更多内容
  • Flume对接OBS

    9版本为例。 下载apache-flume-1.9.0-bin.tar.gz。 安装flume。 解压apache-flume-1.9.0-bin.tar.gz到/opt/apache-flume-1.9.0-bin目录。 已部署Hadoop的环境:无需额外操作,部署Hadoop请参见Hadoop对接OBS。

    来自:帮助中心

    查看更多 →

  • Storm Flux开发指引

    架提交和部署拓扑的场景。本章中描述的jar包的具体版本信息请以实际情况为准。 Flux框架是Storm提供的提高拓扑部署易用性的框架。通过Flux框架,用户可以使用yaml文件来定义和部署拓扑,并且最终通过storm jar命令来提交拓扑的一种方式,极大地方便了拓扑的部署和提交,缩短了业务开发周期。

    来自:帮助中心

    查看更多 →

  • 使用Phoenix创建HBase表后,向索引表中加载数据报错

    HBase > 服务配置”,将“参数类别”的“基础配置”切换为“全部配置”,选择“HMaster > 自定义”,给参数“hbase.hmaster.config.expandor”新增名称为“hbase.regionserver.wal.codec”,值为“org.apache.hadoop

    来自:帮助中心

    查看更多 →

  • Spark对接OBS

    Spark对接OBS 概述 Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎。 前提条件 已安装Hadoop,具体请参见Hadoop对接OBS。 注意事项 为了减少日志输出,在/opt/spark-2.3.3/conf/log4j.properties文件中增加配置: log4j

    来自:帮助中心

    查看更多 →

  • 管理集群配置

    管理 > 连接管理 > 集群配置管理”。 在集群配置管理界面,选择“新建集群配置”,配置参数填写如下: 图2 新建集群配置 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。

    来自:帮助中心

    查看更多 →

  • 使用不同用户执行yarn-session创建Flink集群失败

    exception | org.apache.flink.shaded.curator.org.apache.curator.framework.imps.CuratorFrameworkImpl (CuratorFrameworkImpl.java:566) org.apache.flink.shaded

    来自:帮助中心

    查看更多 →

  • HSS更新Apache Log4j2 远程代码执行漏洞

    0-beat9 <= Apache Log4j 2.x < 2.16.0(2.12.2 版本不受影响) 已知受影响的应用及组件:spring-boot-starter-log4j2/Apache Solr/Apache Flink/Apache Druid 安全版本:Apache Log4j

    来自:帮助中心

    查看更多 →

  • DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)?

    DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)? 不存在。 因为DLI没有启动spark.acls.enable配置项,所以不涉及Apache Spark 命令注入漏洞(CVE-2022-33891)。 父主题: 隐私安全

    来自:帮助中心

    查看更多 →

  • Apache containerd安全漏洞公告(CVE-2020-15257)

    Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理

    来自:帮助中心

    查看更多 →

  • Flume数据写入组件失败

    org.apache.flume.node.Application.getRestartComps(Application.java:467) 解决办法 若Flume数据写入的组件未启动,启动对应组件;若组件异常,请联系服务技术支持。 Sink未启动,检查配置文件是否配置正确,若

    来自:帮助中心

    查看更多 →

  • 提升HBase BulkLoad工具批量加载效率

    当该值配置为“org.apache.hadoop.hbase.mapreduce.TsvImporterByteMapper”时,只在执行没有HBASE_CELL_VISIBILITY OR HBASE_CELL_TTL选项的批量加载命令时使用。使用“org.apache.hadoop

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL支持Hudi Schema演进

    配置SparkSQL支持Hudi Schema演进 Schema演进开启后不能关闭。 本章节仅适用于 MRS 3.2.0及之前版本。 使用spark-beeline时,需要登录Manager页面,选择“集群 > 服务 > Spark2x > 配置 > 全部配置”。 在搜索栏中搜索参数“spark

    来自:帮助中心

    查看更多 →

  • 管理集群配置

    管理 > 连接管理 > 集群配置管理”。 在集群配置管理界面,选择“新建集群配置”,配置参数填写如下: 图2 新建集群配置 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。

    来自:帮助中心

    查看更多 →

  • Flux开发指引

    - "org.apache.kafka.common.serialization.StringSerializer" 定义拓扑的配置示例: config: #简单配置项 topology.workers: 1 #配置项值为列表,使用`[]`表示

    来自:帮助中心

    查看更多 →

  • 为什么DataNode无法正常上报数据块

    ip>:<http-port>/jmx,如果该值超过4倍的限定值(4*1M),建议用户配置多个驱动器并重新启动HDFS。 恢复步骤: 在DataNode上配置多个数据目录。 示例:在原先只配置了/data1/datadir的位置 <property> <name>dfs.datanode

    来自:帮助中心

    查看更多 →

  • Flink故障排除

    Manager与Application Master(简称AM)。 如果用户安装安全集群需要使用kerberos认证和security cookie认证。根据日志提示,发现配置文件中“security.kerberos.login.keytab :”配置项错误,未进行安全配置。 解决方法如下: 从MRS上下载用户的

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    ler/jdk。 安装配置IDEA 用于开发Flink应用程序的工具。版本要求:2019.1或其他兼容版本。 安装Scala Scala开发环境的基本配置。版本要求:2.11.7。 安装Scala插件 Scala开发环境的基本配置。版本要求:1.5.4。 安装Maven 开发环

    来自:帮助中心

    查看更多 →

  • 提交Spark任务时报错“ClassNotFoundException”

    on: org.apache.phoenix.filter.SingleCQKeyValueComparisonFilter 原因分析 用户配置的默认路径不正确。 处理步骤 登录任意Master节点。 修改Spark客户端目录下的配置文件。 执行vim 客户端安装目录/Spark

    来自:帮助中心

    查看更多 →

  • 部署前准备

    部署前准备 创建环境 登录CAE控制台。 选择以下任意方式创建环境。 在您首次使用本服务时,页面会提醒您尚未创建环境。 单击创建环境卡片中的“立即创建”。 图1 创建环境 在弹出的对话框中输入对应的参数,具体参照表1。 表1 创建环境 参数 说明 环境名称 输入自定义的环境名称。

    来自:帮助中心

    查看更多 →

  • 配置OpenTSDB参数

    若当前运行环境与OpenTSDB安装环境处于同一个VPC网络中,使用连接的TSD实例IP或主机名均可。 若当前运行环境与OpenTSDB安装环境位于不同VPC中,仅可使用主机名进行访问。同时需在连接的TSD实例上绑定EIP,并把该EIP及该TSD实例的主机名配置到hosts中,linux

    来自:帮助中心

    查看更多 →

  • 设置了HDFS存储目录的磁盘空间配额,CarbonData为什么会发生异常?

    org.apache.hadoop.hdfs.server.namenode.DirectoryWithQuotaFeature.verifyStoragespaceQuota(DirectoryWithQuotaFeature.java:211) at org.apache.hadoop

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了