bigdata_env 更多内容
  • 集群内用户密码的过期时间如何查询和修改?

    t/Bigdata/client”。 cd /opt/Bigdata/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,输入kadmin/admin用户密码后进入kadmin控制台。 kadmin -p kadmin/admin ka

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    keytab” 和 "krb5.conf"拷贝至“conf”目录。可参考6 。 配置环境变量。 source /opt/client/bigdata_env 执行如下命令,运行Jar包。 hadoop jar hdfs-examples-1.0.jar com.huawei.bigdata

    来自:帮助中心

    查看更多 →

  • ALM-16046 Hive数据仓库权限被修改

    以root用户登录客户端所在节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行以下命令进入HDFS客户端安装目录。 cd 客户端安装目录 source bigdata_env kinit 具有supergroup组权限的用户(普通集群跳过该步骤) 执行以下命令修复默认 数据仓库 权限: 安全环境:hdfs dfs

    来自:帮助中心

    查看更多 →

  • HBase容灾集群主备倒换

    具体请参考安装 MRS 客户端章节。 在备集群HBase客户端,以hbase用户执行以下命令指定备集群写数据状态关闭。 cd 客户端安装目录 source bigdata_env kinit hbase hbase shell set_clusterState_standby 界面提示以下信息表示执行成功:

    来自:帮助中心

    查看更多 →

  • 使用Spark Shell创建Hudi表

    使用root登录客户端安装节点,执行如下命令: cd /opt/client 执行source命令加载环境变量: source bigdata_env source Hudi/component_env kinit 创建的用户 新创建的用户需要修改密码,更改密码后重新kinit登录。

    来自:帮助中心

    查看更多 →

  • Linux中安装客户端时提交Storm拓扑

    初始化客户端环境变量。 进入客户端安装目录“/opt/Storm_client”执行以下命令,导入环境变量信息。 source bigdata_env 使用在“准备开发用户”章节创建的开发用户进行安全登录。 执行kinit命令进行“人机”用户的安全登录。 kinit用户名 例如:

    来自:帮助中心

    查看更多 →

  • 配置Hive表不同分区分别存储至OBS和HDFS

    例如安装目录为“/opt/client”,则执行以下命令: cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 集群认证模式是否为安全模式。 是,执行以下命令进行用户认证: kinit Hive业务用户 否,执行5。 执行以下命令登录Hive客户端。

    来自:帮助中心

    查看更多 →

  • 提交Storm拓扑失败排查思路

    认证异常。 登录客户端节点,进入客户端目录。 执行以下命令重新提交任务。(业务jar包和Topology根据实际情况替换) source bigdata_env kinit 用户名 storm jar storm-starter-topologies-0.10.0.jar storm.starter

    来自:帮助中心

    查看更多 →

  • 准备Linux客户端环境

    )。 初始化客户端环境变量。 进入安装目录“/opt/Storm_Client”执行以下命令,导入环境变量信息。 source bigdata_env 开启Kerberos认证的集群,需要申请人机用户,并进行安全登录。 从管理员处获取一个“人机”用户,用于服务认证。例如:账号john。

    来自:帮助中心

    查看更多 →

  • 配置Hive业务使用其他组件的用户权限

    r访问权限策略。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,配置环境变量。 source /opt/client/bigdata_env 执行以下命令,认证用户。 kinit hbase_creates_user 执行以下命令,进入Hive客户端: beeline

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    表和HBase表。 以客户端安装用户登录安装客户端的节点。 执行以下命令,配置环境变量。 source /opt/client/bigdata_env source /opt/client/Spark2x/component_env 执行以下命令,认证用户。 kinit hbase_creates_user

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    表和HBase表。 以客户端安装用户登录安装客户端的节点。 执行以下命令,配置环境变量。 source /opt/client/bigdata_env source /opt/client/Spark2x/component_env 执行以下命令,认证用户。 kinit hbase_creates_user

    来自:帮助中心

    查看更多 →

  • MapReduce REST API接口介绍

    在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source bigdata_env 操作步骤 获取MapReduce上已完成任务的具体信息 命令: curl -k -i --negotiate -u : "http://10

    来自:帮助中心

    查看更多 →

  • 单NameNode长期故障时如何使用客户端手动checkpoint

    Node的元数据。 停止业务。 获取主NameNode的主机名。 在客户端执行如下命令: source /opt/client/bigdata_env kinit 组件用户 说明:“/opt/client”需要改为实际客户端的安装路径。 执行如下命令,让主NameNode进入安全

    来自:帮助中心

    查看更多 →

  • DataArts Studio调度Spark作业失败

    检查ZooKeeper下面是否有目标目录和注册的信息 以root用户登录任意一个Master节点并初始化环境变量。 source /opt/client/bigdata_env 执行zkCli.sh -server 'ZooKeeper实例IP地址:ZooKeeper连接端口'命令登录ZooKeeper。

    来自:帮助中心

    查看更多 →

  • 配置HDFS通过IAM委托访问OBS

    以客户端安装用户登录安装了HDFS客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装目录 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 在hdfs命令行显式添加要访问的OBS文件系统。

    来自:帮助中心

    查看更多 →

  • 回滚补丁后操作

    /opt/Bigdata/patches/{MRS补丁版本号}/client/ source /opt/Bigdata/client/bigdata_env 所有涉及{MRS补丁版本号}目录名称的操作,均以实际安装的补丁号为准。 例如: cd /opt/Bigdata/patches/MRS_3

    来自:帮助中心

    查看更多 →

  • 创建元数据连接

    填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要

    来自:帮助中心

    查看更多 →

  • MapReduce REST API接口介绍

    在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source bigdata_env 操作步骤 获取MapReduce上已完成任务的具体信息 命令: curl -k -i --negotiate -u : "http://10

    来自:帮助中心

    查看更多 →

  • 调测OpenTSDB应用

    到“/opt/opentsdb-example”目录下。 执行Jar包。 加载环境变量。 source /opt/client/bigdata_env 认证集群用户(未启用kerberos的集群可跳过此步骤)。 人机用户:kinit kerberos用户 机机用户: kinit -kt

    来自:帮助中心

    查看更多 →

  • 准备MRS节点引导操作脚本

    e.tar.gz”文件下载到本地,并解压到“/your-dir”目录下: source /opt/Bigdata/client/bigdata_env;hadoop fs -D fs.obs.endpoint=<obs-endpoint> -D fs.obs.access.key=<your-ak>

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了