apache文件服务器配置 更多内容
  • 配置应用代码

    配置应用代码 功能介绍 如果开启了用户认证功能,就需要管理员账号给访问用户授权以及配置相关参数,这样才可以访问HBase集群。 必须使用CloudTable控制台下载的2.x版本客户端,且客户端中包含jar包,才能使用用户认证功能。 操作步骤 复制如下参数到应用的hbase-site

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    jdk。 安装配置IDEA 用于开发Flink应用程序的工具。版本要求:14.1.7。 安装Scala Scala开发环境的基本配置。版本要求:2.11.7。 安装Scala插件 Scala开发环境的基本配置。版本要求:1.5.4。 安装Maven 开发环境的基本配置。用于项目管理,贯穿软件开发生命周期。

    来自:帮助中心

    查看更多 →

  • 使用不同用户执行yarn-session创建Flink集群失败

    exception | org.apache.flink.shaded.curator.org.apache.curator.framework.imps.CuratorFrameworkImpl (CuratorFrameworkImpl.java:566) org.apache.flink.shaded

    来自:帮助中心

    查看更多 →

  • 提交Spark任务时报错“ClassNotFoundException”

    on: org.apache.phoenix.filter.SingleCQKeyValueComparisonFilter 原因分析 用户配置的默认路径不正确。 处理步骤 登录任意Master节点。 修改Spark客户端目录下的配置文件。 执行vim 客户端安装目录/Spark

    来自:帮助中心

    查看更多 →

  • Flink故障排除

    Manager与Application Master(简称AM)。 如果用户安装安全集群需要使用kerberos认证和security cookie认证。根据日志提示,发现配置文件中“security.kerberos.login.keytab :”配置项错误,未进行安全配置。 解决方法如下: 从 MRS 上下载用户的

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    ler/jdk。 安装配置IDEA 用于开发Flink应用程序的工具。版本要求:2019.1或其他兼容版本。 安装Scala Scala开发环境的基本配置。版本要求:2.11.7。 安装Scala插件 Scala开发环境的基本配置。版本要求:1.5.4。 安装Maven 开发环

    来自:帮助中心

    查看更多 →

  • Flux开发指引

    - "org.apache.kafka.common.serialization.StringSerializer" 定义拓扑的配置示例: config: #简单配置项 topology.workers: 1 #配置项值为列表,使用`[]`表示

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL支持Hudi Schema演进

    配置SparkSQL支持Hudi Schema演进 Schema演进开启后不能关闭。 本章节仅适用于MRS 3.2.0及之前版本。 使用spark-beeline时,需要登录Manager页面,选择“集群 > 服务 > Spark2x > 配置 > 全部配置”。 在搜索栏中搜索参数“spark

    来自:帮助中心

    查看更多 →

  • Storm Flux开发指引

    架提交和部署拓扑的场景。本章中描述的jar包的具体版本信息请以实际情况为准。 Flux框架是Storm提供的提高拓扑部署易用性的框架。通过Flux框架,用户可以使用yaml文件来定义和部署拓扑,并且最终通过storm jar命令来提交拓扑的一种方式,极大地方便了拓扑的部署和提交,缩短了业务开发周期。

    来自:帮助中心

    查看更多 →

  • 为什么DataNode无法正常上报数据块

    ip>:<http-port>/jmx,如果该值超过4倍的限定值(4*1M),建议用户配置多个驱动器并重新启动HDFS。 恢复步骤: 在DataNode上配置多个数据目录。 示例:在原先只配置了/data1/datadir的位置 <property> <name>dfs.datanode

    来自:帮助中心

    查看更多 →

  • 设置了HDFS存储目录的磁盘空间配额,CarbonData为什么会发生异常?

    org.apache.hadoop.hdfs.server.namenode.DirectoryWithQuotaFeature.verifyStoragespaceQuota(DirectoryWithQuotaFeature.java:211) at org.apache.hadoop

    来自:帮助中心

    查看更多 →

  • Spark on OBS性能调优

    Spark on OBS性能调优 配置场景 Spark on OBS在小批量频繁请求OBS的场景下,可以通过关闭OBS监控提升性能。 配置描述 在Spark客户端的“core-site.xml”配置文件中修改配置。 表1 参数介绍 参数 描述 默认值 fs.obs.metrics

    来自:帮助中心

    查看更多 →

  • Ranger界面添加或者修改HBase策略时,无法使用通配符搜索已存在的HBase表

    java:186) at org.apache.hadoop.hbase.security.AbstractHBaseSaslRpcClient.evaluateChallenge(AbstractHBaseSaslRpcClient.java:142) at org.apache.hadoop.hbase

    来自:帮助中心

    查看更多 →

  • 管理集群配置

    管理 > 连接管理 > 集群配置管理”。 在集群配置管理界面,选择“新建集群配置”,配置参数填写如下: 图2 新建集群配置 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。

    来自:帮助中心

    查看更多 →

  • Hudi组件对接OBS

    Hudi组件对接OBS 对接OBS 使用客户端安装用户登录客户端安装节点。 配置环境变量。 source 客户端安装目录/bigdata_env source 客户端安装目录/Hudi/component_env 修改配置文件: vim 客户端安装目录/Hudi/hudi/conf/hdfs-site

    来自:帮助中心

    查看更多 →

  • 网关服务

    配置redis连接,可以采用单节点模式或者哨兵模式 配置kafka连接以及kafka主题 ```yml # 服务端口 server: port: 9999 spring: # redis配置,单节点模式配置host和port;哨兵模式配置sentinel redis: database: 9

    来自:帮助中心

    查看更多 →

  • 为什么DataNode无法正常上报数据块

    ip>:<http-port>/jmx,如果该值超过4倍的限定值(4*1M),建议用户配置多个驱动器并重新启动HDFS。 恢复步骤: 在DataNode上配置多个数据目录。 示例:在原先只配置了/data1/datadir的位置 <property> <name>dfs.datanode

    来自:帮助中心

    查看更多 →

  • CTBase对接Ranger权限插件,提示权限不足

    (action=create) at org.apache.ranger.authorization.hbase.AuthorizationSession.publishResults(AuthorizationSession.java:278) at org.apache.ranger.authorization

    来自:帮助中心

    查看更多 →

  • 开启Oozie HA机制

    服务 > Oozie > 配置 > 全部配置”,在“自定义”的“oozie.site.configs”参数中添加如下四个配置项。修改完成后单击“保存”,在弹框中单击“确定”保存配置。 名称 值 参数说明 oozie.services.ext org.apache.oozie.service

    来自:帮助中心

    查看更多 →

  • 使用DIS导入本地数据到Elasticsearch

    登录DIS管理控制台。 购买接入通道。 具体操作请参见《 数据接入服务 用户指南》中的开通DIS通道。 安装配置DIS Agent。 具体操作请参见《数据接入服务用户指南》中的安装DIS Agent和配置DIS Agent配置DIS Agent。 启动DIS Agent,将采集的本地数据上传到DIS队列中。

    来自:帮助中心

    查看更多 →

  • HBase启动失败,RegionServer日志中提示“FileNotFoundException”

    java:1391) at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:340) at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:292) at org.apache.hadoop.fs

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了