apache配置二级域名 更多内容
  • 快速部署

    选),单击“下一步”。 图4 资源栈设置 在配置确认页面中,单击“创建执行计划”。 图5 配置确认 在弹出的创建执行计划框中,自定义填写执行计划名称,单击“确定”。 图6 创建执行计划 待执行计划状态为“创建成功,待部署”后,单击“部署”,并且在弹出的执行计划确认框中单击“执行”。

    来自:帮助中心

    查看更多 →

  • CTBase对接Ranger权限插件,提示权限不足

    (action=create) at org.apache.ranger.authorization.hbase.AuthorizationSession.publishResults(AuthorizationSession.java:278) at org.apache.ranger.authorization

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测MapReduce应用

    main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境配置文件中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce.admin.map.child.java.opts”和“mapreduce

    来自:帮助中心

    查看更多 →

  • 多级嵌套子查询以及混合Join的SQL调优

    sql 在执行SQL语句前,请使用 MRS 集群管理员用户修改内存大小配置。 登录 FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”。 单击“全部配置”,并搜索“SPARK_DRIVER_MEMORY”。 修改参数值

    来自:帮助中心

    查看更多 →

  • 使用LZC压缩算法存储HDFS文件

    com/p/snappy/。 本章节适用于MRS 3.x及后续版本。 配置描述 为了使LZC压缩生效,需要在客户端的配置文件“core-site.xml”中(例如“客户端安装路径/HDFS/hadoop/etc/hadoop/”)配置如下参数。 表1 参数描述 参数 描述 默认值 io.compression

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar写入数据到OBS开发指南

    数据处理后写入到OBS,具体参数配置请根据实际环境修改。 环境准备 已安装配置IntelliJ IDEA等开发工具以及安装JDK和Maven。 Maven工程的pom.xml文件配置请参考JAVA样例代码(Flink 1.12)中“pom文件配置”说明。 确保本地编译环境可以正常访问公网。

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    datasource.write.keygenerator.class 默认配置为org.apache.hudi.keygen.SimpleKeyGenerator ,也可以不配置配置为org.apache.hudi.keygen.ComplexKeyGenerator。 hoodie

    来自:帮助中心

    查看更多 →

  • SparkStreaming消费Kafka消息失败,提示“Error getting partition metadata”

    java:498) org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:762) org.apache.spark.deploy.SparkSubmit$

    来自:帮助中心

    查看更多 →

  • Hive任务执行中报栈内存溢出导致任务执行失败

    mb和mapreduce.map.java.opts的值: 进入Hive服务配置页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Hive > 服务配置”,单击“基础配置”下拉菜单,选择“全部配置”。 如果集群详情页面没有“组件管理”页签,请先完成IAM用户同

    来自:帮助中心

    查看更多 →

  • ImportTsv工具执行失败报“Permission denied”异常

    at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:342) at org.apache.hadoop.hdfs.server

    来自:帮助中心

    查看更多 →

  • Storm Flux开发指引

    架提交和部署拓扑的场景。本章中描述的jar包的具体版本信息请以实际情况为准。 Flux框架是Storm提供的提高拓扑部署易用性的框架。通过Flux框架,用户可以使用yaml文件来定义和部署拓扑,并且最终通过storm jar命令来提交拓扑的一种方式,极大地方便了拓扑的部署和提交,缩短了业务开发周期。

    来自:帮助中心

    查看更多 →

  • Flink客户端执行命令报错“Could not connect to the leading JobManager”

    SSL通信加密,修改客户端配置文件“conf/flink-conf.yaml”。 security.ssl.enabled: false 方法2: 开启Flink SSL通信加密,security.ssl.enabled 保持默认。 正确配置SSL: 配置keystore或trus

    来自:帮助中心

    查看更多 →

  • 使用Phoenix创建HBase表后,向索引表中加载数据报错

    HBase > 服务配置”,将“参数类别”的“基础配置”切换为“全部配置”,选择“HMaster > 自定义”,给参数“hbase.hmaster.config.expandor”新增名称为“hbase.regionserver.wal.codec”,值为“org.apache.hadoop

    来自:帮助中心

    查看更多 →

  • 网站标明备案号

    、确认备案信息。 图2 其他省份网站标明备案号效果 二级 域名 下的网站是否需要标明备案号? 一般情况下,一级域名履行ICP备案后,在网站首页底部标明备案号即可。 对于可以使用二级甚至多级域名备案的(如政府或者公益单位),二级域名备案后,也需要在网站底部标明备案号。 父主题: ICP备案号FAQ

    来自:帮助中心

    查看更多 →

  • 新建Hadoop集群配置

    管理 > 连接管理 > 集群配置管理”。 在集群配置管理界面,选择“新建集群配置”,配置参数填写如下: 图2 新建集群配置 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。

    来自:帮助中心

    查看更多 →

  • 使用不同用户执行yarn-session创建Flink集群失败

    exception | org.apache.flink.shaded.curator.org.apache.curator.framework.imps.CuratorFrameworkImpl (CuratorFrameworkImpl.java:566) org.apache.flink.shaded

    来自:帮助中心

    查看更多 →

  • Flux开发指引

    - "org.apache.kafka.common.serialization.StringSerializer" 定义拓扑的配置示例: config: #简单配置项 topology.workers: 1 #配置项值为列表,使用`[]`表示

    来自:帮助中心

    查看更多 →

  • 新建Hadoop集群配置

    管理 > 连接管理 > 集群配置管理”。 在集群配置管理界面,选择“新建集群配置”,配置参数填写如下: 图2 新建集群配置 集群配置名:根据连接的数据源类型,用户可自定义便于记忆、区分的集群配置名。 上传集群配置:单击“添加文件”以选择本地的集群配置文件,然后通过操作框右侧的“上传文件”进行上传。

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    ler/jdk。 安装配置IDEA 用于开发Flink应用程序的工具。版本要求:2019.1或其他兼容版本。 安装Scala Scala开发环境的基本配置。版本要求:2.11.7。 安装Scala插件 Scala开发环境的基本配置。版本要求:1.5.4。 安装Maven 开发环

    来自:帮助中心

    查看更多 →

  • 为什么DataNode无法正常上报数据块

    ip>:<http-port>/jmx,如果该值超过4倍的限定值(4*1M),建议用户配置多个驱动器并重新启动HDFS。 恢复步骤: 在DataNode上配置多个数据目录。 示例:在原先只配置了/data1/datadir的位置 <property> <name>dfs.datanode

    来自:帮助中心

    查看更多 →

  • Flink故障排除

    Manager与Application Master(简称AM)。 如果用户安装安全集群需要使用kerberos认证和security cookie认证。根据日志提示,发现配置文件中“security.kerberos.login.keytab :”配置项错误,未进行安全配置。 解决方法如下: 从MRS上下载用户的

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了