apache 禁止空主机头配置 更多内容
  • Flink HA方案介绍

    bManager。该模式下可以配置一个JobManager(Leader JobManager)和多个备JobManager(Standby JobManager),这能够保证当JobManager失败后,备的某个JobManager可以承担的职责。图1为主备JobManager的恢复过程。

    来自:帮助中心

    查看更多 →

  • 在Hue WebUI使用元数据浏览器

    ve表的新数据。 如果文件未在HDFS中保存,可以单击“Upload a file”从本地选择文件并上传。支持同时上传多个文件,文件不可为。 如果需要将文件中的数据导入Hive表,选择“Import data”作为“Load method”。默认选择“Import data”。

    来自:帮助中心

    查看更多 →

  • MapReduce Java API接口介绍

    类,默认为。也可以在“mapred-site.xml”中配置“mapreduce.job.reduce.class”项。 setCombinerClass(Class<extends Reducer> cls) 指定MapReduce作业的Combiner类,默认为。也可以在“mapred-site

    来自:帮助中心

    查看更多 →

  • 如何配置HBase双读功能

    Admin接口、实时写入接口只会访问集群。所以集群故障后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 HBase双读支持以下两种方式设置备集群的相关配置: 在“hbase-dual.xml”中新增备集群的相关配置。 将备集群相关配置设置到HBaseM

    来自:帮助中心

    查看更多 →

  • 采集数据时报错HoodieKeyException

    采集数据时报错HoodieKeyException 问题 创建Hudi表时,是否可以使用包含记录的可字段作为主键? 回答 不可以,会抛HoodieKeyException异常。 Caused by: org.apache.hudi.exception.HoodieKeyException: recordKey

    来自:帮助中心

    查看更多 →

  • 如何配置HBase双读功能

    Admin接口、实时写入接口只会访问集群。所以集群故障后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 HBase双读支持以下两种方式设置备集群的相关配置: 在“hbase-dual.xml”中新增备集群的相关配置。 将备集群相关配置设置到HBaseM

    来自:帮助中心

    查看更多 →

  • MapReduce Java API接口介绍

    类,默认为。也可以在“mapred-site.xml”中配置“mapreduce.job.reduce.class”项。 setCombinerClass(Class<extends Reducer> cls) 指定MapReduce作业的Combiner类,默认为。也可以在“mapred-site

    来自:帮助中心

    查看更多 →

  • MapReduce Java API接口介绍

    类,默认为。也可以在“mapred-site.xml”中配置“mapreduce.job.reduce.class”项。 setCombinerClass(Class<extends Reducer> cls) 指定MapReduce作业的Combiner类,默认为。也可以在“mapred-site

    来自:帮助中心

    查看更多 →

  • 在Apache服务器上安装SSL证书

    Apache 服务器 安装SSL证书 本文以CentOS 7操作系统中的Apache 2.4.6服务器为例介绍SSL证书的安装步骤,您在安装国际标准证书时可以进行参考。证书安装好后,您的Web服务器才能支持SSL通信,实现通信安全。 由于服务器系统版本或服务器环境配置不同,在安装S

    来自:帮助中心

    查看更多 →

  • 采集数据时报错HoodieKeyException

    采集数据时报错HoodieKeyException 问题 创建Hudi表时,是否可以使用包含记录的可字段作为主键? 回答 不可以,会抛HoodieKeyException异常。 Caused by: org.apache.hudi.exception.HoodieKeyException: recordKey

    来自:帮助中心

    查看更多 →

  • spring-kafka的使用

    algorithm为证书 域名 校验开关,为则表示关闭,这里需要保持关闭状态,必须设置为。 spring.kafka.properties.ssl.endpoint.identification.algorithm= ## 安全协议为“SASL_PLAINTEXT”时,配置信息如下。 spring

    来自:帮助中心

    查看更多 →

  • MapReduce Java API接口介绍

    类,默认为。也可以在“mapred-site.xml”中配置“mapreduce.job.reduce.class”项。 setCombinerClass(Class<extends Reducer> cls) 指定MapReduce作业的Combiner类,默认为。也可以在“mapred-site

    来自:帮助中心

    查看更多 →

  • 提交规则

    com$ 文件基本属性规则 非必填。 禁止提交的文件名称:禁止提交的文件名称规则默认为,不会对文件名校验,任何文件都可以提交,建议正则编写时使用规范的正则语句进行匹配,文件名禁用规则处默认会根据规则校验文件所属路径,限制2000个字符。 例如: 设置禁止提交的文件名称规则:(\.jar|\

    来自:帮助中心

    查看更多 →

  • HDFS

    HDFS可以直接使用开源同版本的hadoop包运行样例代码,但是 MRS 3.x之后的版本默认的备倒换类是dfs.client.failover.proxy.provider.hacluster=org.apache.hadoop.hdfs.server.namenode.ha.Adaptive

    来自:帮助中心

    查看更多 →

  • HDFS

    HDFS可以直接使用开源同版本的hadoop包运行样例代码,但是MRS 3.x之后的版本默认的备倒换类是dfs.client.failover.proxy.provider.hacluster=org.apache.hadoop.hdfs.server.namenode.ha.Adaptive

    来自:帮助中心

    查看更多 →

  • 将GaussDB主备版同步到GaussDB主备版

    GaussDB 备版同步到GaussDB备版 支持的源和目标数据库 表1 支持的数据库 源数据库 目标数据库 GaussDB备版 GaussDB备版 说明: 仅支持目标库版本等于或高于源库版本。 支持的同步对象范围 在使用DRS进行同步时,不同类型的同步任务,支持的同步对

    来自:帮助中心

    查看更多 →

  • KafkaProducer类说明

    ng topic, String message),否则会导致返回信息为。例如在使用示例中,不能直接使用“return record”句式,否则返回的信息为。 方法详情 public org.apache.kafka.clients.producer.RecordMetadata

    来自:帮助中心

    查看更多 →

  • 将GaussDB主备版同步到GaussDB主备版

    将GaussDB备版同步到GaussDB备版 支持的源和目标数据库 表1 支持的数据库 源数据库 目标数据库 GaussDB备版 GaussDB备版 说明: 仅支持目标库版本等于或高于源库版本。 支持的同步对象范围 在使用DRS进行同步时,不同类型的同步任务,支持的同步对

    来自:帮助中心

    查看更多 →

  • 配置用户在具有读和执行权限的目录中创建外表

    配置用户在具有读和执行权限的目录中创建外表 操作场景 此功能适用于Hive,Spark2x/Spark。 开启此功能后,允许有目录读权限和执行权限的用户和用户组创建外部表,而不必检查用户是否为该目录的属,并且禁止外表的location目录在当前默认warehouse目录下。同时

    来自:帮助中心

    查看更多 →

  • 如何配置HBase双读能力

    HBase Admin接口、实时写入接口只会访问集群。所以集群宕机后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 操作步骤 参考准备连接HBase集群配置文件章节,获取HBase集群客户端配置文件“core-site.xml”、“hbase-site

    来自:帮助中心

    查看更多 →

  • 配置项详细信息列表

    loadBalance 读写分离负载均衡算法 可选项: RANDOM是随机 ROUND_ROBIN是轮询 router.nodes.ds1.master 数据源 当slaves为时,读写流量都在master 当slaves不为时,读流量在slaves,写流量,DDL,事务操作在master

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了