source bigdata_env 更多内容
  • 配置HBase数据压缩格式和编码

    以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

    来自:帮助中心

    查看更多 →

  • 使用Hudi-Cli.sh操作Hudi表

    已下载并安装Hudi集群客户端。 基础操作 使用root用户登录集群客户端节点,执行如下命令: cd {客户端安装目录} source bigdata_env source Hudi/component_env kinit 创建的用户 执行hudi-cli.sh进入Hudi客户端, cd

    来自:帮助中心

    查看更多 →

  • 使用Hudi-Cli.sh操作Hudi表

    已下载并安装Hudi集群客户端。 基础操作 使用root用户登录集群客户端节点,执行如下命令: cd {客户端安装目录} source bigdata_env source Hudi/component_env kinit 创建的用户 执行hudi-cli.sh进入Hudi客户端, cd

    来自:帮助中心

    查看更多 →

  • ALM-45444 ClickHouse进程异常

    告警”,查看当前告警“定位信息”中的角色名以及确认主机名所在的IP地址。 以客户端安装用户,登录客户端的节点,执行如下命令: cd {客户端安装路径} source bigdata_env 集群已启用Kerberos认证(安全模式): kinit 组件业务用户 clickhouse client --host

    来自:帮助中心

    查看更多 →

  • 初始化系统用户密码

    执行以下命令,切换到客户端目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,使用kadmin/admin登录控制台。 kadmin -p kadmin/admin kadmin/ad

    来自:帮助中心

    查看更多 →

  • 如何删除所有HiveServer中的永久函数

    cd客户端安装目录 例如安装目录为“/opt/client”,则执行以下命令: cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证。 kinitHive业务用户 登录的用户需具备Hive admin权限。 执行如下命令,连接指定的HiveServer。

    来自:帮助中心

    查看更多 →

  • Sqoop读取MySQL数据到HBase时报HBaseAdmin.<init>方法找不到异常

    上传包之后,修改包的权限,可以设置为755,具体执行命令为: chmod 755 包名称 在客户端目录下执行以下命令刷新Sqoop客户端: source bigdata_env 重新执行sqoop命令 父主题: 使用Sqoop

    来自:帮助中心

    查看更多 →

  • ALM-19026 HBase存在损坏的WAL文件

    定位信息”中上报该告警的服务名。 以客户端安装用户登录安装了HDFS客户端的节点,并执行以下命令: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(若集群未启用Kerberos认证(普通模式),请跳过该操作) 执行以下命令查看损坏的WAL文件,并执行4。

    来自:帮助中心

    查看更多 →

  • 建立Hive表分区提升查询效率

    以root用户登录已安装Hive客户端的节点。 执行以下命令,进入客户端安装目录,例如“/opt/client”。 cd /opt/client 执行source bigdata_env命令,配置客户端环境变量。 在客户端中执行如下命令,执行登录操作。 kinit 用户名 执行以下命令登录Hive客户端。 beeline

    来自:帮助中心

    查看更多 →

  • HDFS组件对接OBS

    以客户端安装用户登录安装了HDFS客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装目录 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证,该用户需具有OBS目录的读写权限。普通模式集群无需执行用户认证。 kinit

    来自:帮助中心

    查看更多 →

  • 配置HBase数据压缩格式和编码

    以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。 kinit developuser 执行以下命令在HDFS创建目录并上传样例工程到该目录。

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。 kinit developuser 执行以下命令在HDFS创建目录并上传样例工程到该目录。

    来自:帮助中心

    查看更多 →

  • 使用HDFS Colocation存储Hive表

    执行以下命令,切换到客户端安装目录,如:/opt/client。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令认证用户。 kinit MRS 用户名 通过HDFS接口创建<groupid>: hdfs

    来自:帮助中心

    查看更多 →

  • 如何删除所有HiveServer中的永久函数

    客户端安装目录 例如安装目录为“/opt/client”,则执行以下命令: cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证。 kinit Hive业务用户 登录的用户需具备Hive admin权限。 执行如下命令,连接指定的HiveServer。

    来自:帮助中心

    查看更多 →

  • HDFS客户端使用实践

    以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 执行HDFS Shell命令。例如:

    来自:帮助中心

    查看更多 →

  • 使用HDFS客户端

    以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 执行HDFS Shell命令。例如:

    来自:帮助中心

    查看更多 →

  • 快速开发Spark应用

    例如上传到“/opt/client”目录下。 使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env kinit sparkuser 创建Hive表并写入初始数据。 beeline 在Hive Beeline命令行中执行以下命令创建表并插入数据。

    来自:帮助中心

    查看更多 →

  • 基于Kafka的Word Count数据流统计案例

    -get命令下载到客户端节点本地。 步骤4:运行作业并查看结果 使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。

    来自:帮助中心

    查看更多 →

  • Resource

    Resource Resource 是Terraform中最重要的元素,通过关键字 "resource" 进行声明。Provider中支持的云服务都有一个或多个资源与之对应,如huaweicloud_compute_instance表示E CS ,huaweicloud_vpc表示V

    来自:帮助中心

    查看更多 →

  • MapReduce访问多组件样例程序开发思路

    components/mapreduce/input/ 创建HBase表并插入数据。 在Linux系统HBase客户端执行source bigdata_env,并使用命令hbase shell。 在HBase shell交互窗口创建数据表table1,该表有一个列族cf,使用命令create

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了