apache location 更多内容
  • 获取客户端真实IP

    %b" common 重启Apache服务,使配置生效。 如果源站部署的Apache 服务器 为2.2及以下版本,您可通过运行命令安装Apache的第三方模块mod_rpaf,并修改“http.conf”文件获取客户IP地址。 执行以下命令安装Apache的一个第三方模块mod_rpaf。

    来自:帮助中心

    查看更多 →

  • 配置Spark通过IAM委托访问OBS

    配置Spark通过IAM委托访问OBS 参考配置 MRS 集群通过IAM委托对接OBS完成存算分离集群配置后,即可在Spark客户端创建Location为OBS路径的表。 集群安装后使用spark beeline 登录 FusionInsight Manager,选择“集群 > 服务 >

    来自:帮助中心

    查看更多 →

  • HDFS HTTP REST API接口介绍

    REST应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请参考官网上的描述以了解其使用:http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/WebHDFS.html。 准备运行环境

    来自:帮助中心

    查看更多 →

  • HDFS HTTP REST API接口介绍

    REST应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请参考官网上的描述以了解其使用: http://hadoop.apache.org/docs/r3.1.1/hadoop-project-dist/hadoop-hdfs/WebHDFS.html 准备运行环境

    来自:帮助中心

    查看更多 →

  • 安装SSL证书

    根据申请证书时,选择的“证书请求文件”方式的不同,下载文件也有所不同。 申请证书时,如果“证书请求文件”选择的是“系统生成 CS R”,则下载文件说明如下: 下载的文件包含了“Apache”、“IIS”、“Nginx”、“Tomcat”4个文件夹和1个“domain.csr”文件,具体文件说明如表所示。 表1 域名 类型说明

    来自:帮助中心

    查看更多 →

  • 删除Kafka消费组

    protocol=SASL_PLAINTEXT #SASL认证机制为“SC RAM -SHA-512”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \ username="**********"

    来自:帮助中心

    查看更多 →

  • 修改Kafka Topic分区数

    protocol=SASL_PLAINTEXT #SASL认证机制为“SCRAM-SHA-512”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \ username="**********"

    来自:帮助中心

    查看更多 →

  • 根据条件分页列举表信息

    参数类型 描述 columns Array of Column objects 分区列以外的所有字段。 location String 路径地址。例如obs://location/uri/。 compressed Boolean 是否启用数据压缩。默认为false。 input_format

    来自:帮助中心

    查看更多 →

  • 修改表信息

    参数类型 描述 columns 是 Array of Column objects 分区列以外的所有字段。 location 否 String 路径地址。例如obs://location/uri/。 compressed 是 Boolean 是否启用数据压缩。默认为false。 input_format

    来自:帮助中心

    查看更多 →

  • Logstash对接Kafka生产消费消息

    #SASL认证机制为“PLAIN”时,配置信息如下。 sasl_mechanism => "PLAIN" sasl_jaas_config => "org.apache.kafka.common.security.plain.PlainLoginModule required username='username'

    来自:帮助中心

    查看更多 →

  • Java SDK使用说明

    SSLContext; import org.apache.http.Header; import org.apache.http.HttpEntity; import org.apache.http.HttpResponse; import org.apache.http.client.methods

    来自:帮助中心

    查看更多 →

  • 查看Kafka消费者信息

    protocol=SASL_PLAINTEXT #SASL认证机制为“SCRAM-SHA-512”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required \ username="**********"

    来自:帮助中心

    查看更多 →

  • 代码样例

    = -1) { Location = respRecordLink.getFirstHeader("Location").getValue(); } else { Location = ""; }

    来自:帮助中心

    查看更多 →

  • Hive源表

    户需要在Flink和Hive之间切换来执行不同语句的情况。详情可参考:Apache Flink Hive 方言 使用HiveCatalog,Apache Flink可以用于统一处理Apache Hive表的BATCH和STREAM。Flink可以作为Hive批处理引擎的更高效的替

    来自:帮助中心

    查看更多 →

  • 创建Hive表

    stored as textfile location "obs://OBS桶1/桶下文件夹"; 修改此表分区位置到另外一个桶下,此时该修改不会生效。 alter table table_name partition(dt date) set location "obs://OBS桶2/桶下文件夹";

    来自:帮助中心

    查看更多 →

  • Hive应用开发简介

    基于Kerberos技术的安全认证机制。 数据文件加密机制。 完善的权限管理。 开源社区的Hive特性,请参见https://cwiki.apache.org/confluence/display/hive/designdocs。 常用概念 keytab文件 存放用户信息的密钥文件。

    来自:帮助中心

    查看更多 →

  • 环境准备

    码工程。 mvn patch:apply -DpatchFile=${your patch file location} 其中,“your patch file location”为hive-2_3_for_lakeformation.patch或hive-3_1_for_lakeformation

    来自:帮助中心

    查看更多 →

  • Apache containerd安全漏洞公告(CVE-2020-15257)

    Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理

    来自:帮助中心

    查看更多 →

  • 在Apache服务器上安装国密标准SSL证书

    Apache服务器上安装国密标准SSL证书 本文以CentOS 7操作系统中的Apache 2.4.46服务器为例介绍国密标准(SM2)SSL证书的安装步骤,您在安装国密标准证书时可以进行参考。证书安装好后,您的Web服务器才能支持SSL通信,实现通信安全。 由于服务器系统版本

    来自:帮助中心

    查看更多 →

  • DLI是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)?

    DLI 是否存在Apache Spark 命令注入漏洞(CVE-2022-33891)? 不存在。 DLI没有启动spark.acls.enable配置项,所以不涉及Apache Spark 命令注入漏洞(CVE-2022-33891)。 该漏洞主要影响在启用了ACL(访问控制列表

    来自:帮助中心

    查看更多 →

  • 使用Livy提交Spark Jar作业

    contextLauncher.custom.class=org.apache.livy.rsc.DliContextLauncher livy.server.batch.custom.class=org.apache.livy.server.batch.DliBatchSession

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了