apache环境变量 更多内容
  • beeline客户端报错“OutOfMemoryError”

    org.apache.hive.beeline.BeeLine.print(BeeLine.java:1856) at org.apache.hive.beeline.Commands.execute(Commands.java:873) at org.apache.hive

    来自:帮助中心

    查看更多 →

  • Hive连接

    配置 linkConfig.uri 否 String 连接Apache Hadoop时的Namenode URI地址,格式为“ip:port” linkConfig.hiveMsUris 否 String 连接Apache Hadoop时的Hive元数据地址,参考 hive.metastore

    来自:帮助中心

    查看更多 →

  • 从零开始使用Iceberg

    op和hive用户组,主组为hadoop。 操作步骤 使用root登录客户端安装节点,执行如下命令: cd 客户端安装目录 执行以下命令环境变量并认证用户: source bigdata_env kinit 创建的业务用户(未开启Kerberos认证的用户请跳过该操作) 将以下参

    来自:帮助中心

    查看更多 →

  • 迁移Storm对接的外部安全组件业务

    auto_tgts.add("org.apache.storm.security.auth.kerberos.AutoTGT"); //添加AutoHDFS插件 //如果对接HBase,则如下更改为:auto_tgts.add("org.apache.storm.hbase.security

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    import org.apache.hudi.QuickstartUtils._ import scala.collection.JavaConversions._ import org.apache.spark.sql.SaveMode._ import org.apache.hudi.

    来自:帮助中心

    查看更多 →

  • Flux开发指引

    className: "org.apache.storm.kafka.StringScheme" #使用构造函数定义component - id: "defaultTopicSelector" className: "org.apache.storm.kafka.bolt

    来自:帮助中心

    查看更多 →

  • 编译并运行程序

    n.java”,单击“Run as > Run Configurations”,参考如下截图添加环境变量"-Dzookeeper.clientCnxnSocket=org.apache.zookeeper.ClientCnxnSocketNetty -Dzookeeper.client

    来自:帮助中心

    查看更多 →

  • 导出证书

    认证使用的ak和sk硬编到代码中或明文存储存在较大安全风险,建议在配置文件或环境变量中密文存放,使用时解密,确保安全; * 本示例ak和sk保存在环境变量中为例,运行本示例前请先在本地环境中设置环境变量HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。

    来自:帮助中心

    查看更多 →

  • 配置Hive列加密功能

    Hive列加密机制目前支持的加密算法有两种,在建表时指定: AES:对应加密类名称为“org.apache.hadoop.hive.serde2.AESRewriter”。 SMS 4:对应加密类名称为“org.apache.hadoop.hive.serde2.SMS4Rewriter”。 将原始

    来自:帮助中心

    查看更多 →

  • 安装Spark

    https://archive.apache.org/dist//maven/maven-3/3.6.3/binaries/apache-maven-3.6.3-bin.tar.gz tar -zxvf apache-maven-3.6.3-bin.tar.gz && mv apache-maven-3

    来自:帮助中心

    查看更多 →

  • 在本地Windows中调测HDFS程序

    (可选)在开发环境中(例如IntelliJ IDEA中),运行此样例代码需要设置运行用户,设置运行用户有两种方式,添加环境变量HADOOP_USER_NAME或者修改代码。设置环境变量方法具体如下: 选中需要运行的样例程序HdfsExample.java或者ColocationExample

    来自:帮助中心

    查看更多 →

  • 如何在Flume配置文件中使用环境变量

    如何在Flume配置文件中使用环境变量 以root用户登录安装Flume客户端所在节点。 切换到以下目录。 cd Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/conf 在该目录下的“flume-env.sh”文件中添加环境变量。 格式: export

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    import org.apache.hudi.QuickstartUtils._ import scala.collection.JavaConversions._ import org.apache.spark.sql.SaveMode._ import org.apache.hudi.

    来自:帮助中心

    查看更多 →

  • Storm Flux开发指引

    className: "org.apache.storm.kafka.StringScheme" #使用构造函数定义component - id: "defaultTopicSelector" className: "org.apache.storm.kafka.bolt

    来自:帮助中心

    查看更多 →

  • java样例代码

    import org.apache.spark.SparkConf; import org.apache.spark.SparkContext; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api

    来自:帮助中心

    查看更多 →

  • Java

    本示例以AK和SK保存在环境变量中为例,运行本示例前请先在本地环境中设置环境变量HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。以Linux系统为例在本地将已获取的AK/SK设置为环境变量。 打开终端,输入以下命令打开环境变量配置文件。 vi ~/.bashrc

    来自:帮助中心

    查看更多 →

  • 自定义Hive表行分隔符

    STORED AS inputformat 'org.apache.hadoop.hive.contrib.fileformat.SpecifiedDelimiterInputFormat' outputformat 'org.apache.hadoop.hive.ql.io.HiveI

    来自:帮助中心

    查看更多 →

  • java样例代码

    org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark

    来自:帮助中心

    查看更多 →

  • 收发普通消息

    "os" "strconv" "time" "github.com/apache/rocketmq-clients/golang" "github.com/apache/rocketmq-clients/golang/credentials" ) const

    来自:帮助中心

    查看更多 →

  • 完整迁移Storm业务

    、“flink-core”和“flink-streaming-java_2.11”的引用。如下: <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-storm_2.11</artifactId> <version>1

    来自:帮助中心

    查看更多 →

  • 在容器中通过环境变量获取Pod基础信息

    在容器中通过环境变量获取Pod基础信息 客户如果需要在容器内获取POD的基础信息,可以通过kubernetes中的Downward API注入环境变量的方式实现。本操作实践展示如何在Deployment和POD的定义中增加环境变量配置,获取Pod的namespace、name、uid、IP、Region和AZ。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了