source bigdata_env 更多内容
  • 如何删除所有HiveServer中的永久函数

    cd客户端安装目录 例如安装目录为“/opt/client”,则执行以下命令: cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证。 kinitHive业务用户 登录的用户需具备Hive admin权限。 执行如下命令,连接指定的HiveServer。

    来自:帮助中心

    查看更多 →

  • Sqoop读取MySQL数据到HBase时报HBaseAdmin.<init>方法找不到异常

    上传包之后,修改包的权限,可以设置为755,具体执行命令为: chmod 755 包名称 在客户端目录下执行以下命令刷新Sqoop客户端: source bigdata_env 重新执行sqoop命令。 父主题: 使用Sqoop

    来自:帮助中心

    查看更多 →

  • 建立Hive表分区提升查询效率

    以root用户登录已安装Hive客户端的节点。 执行以下命令,进入客户端安装目录,例如“/opt/client”。 cd /opt/client 执行source bigdata_env命令,配置客户端环境变量。 在客户端中执行如下命令,执行登录操作。 kinit 用户名 执行以下命令登录Hive客户端。 beeline

    来自:帮助中心

    查看更多 →

  • 安装在集群外的MRS客户端如何访问OBS

    S客户端访问OBS: 以客户端安装用户登录安装客户端的节点。 切换到客户端安装目录并配置环境变量: cd 客户端安装目录 source bigdata_env 在HDFS客户端执行以下命令访问OBS: hdfs dfs -ls obs://OBS并行文件系统目录 如下表示对接成功:

    来自:帮助中心

    查看更多 →

  • Resource

    Resource Resource 是Terraform中最重要的元素,通过关键字 "resource" 进行声明。Provider中支持的云服务都有一个或多个资源与之对应,如huaweicloud_compute_instance表示E CS ,huaweicloud_vpc表示V

    来自:帮助中心

    查看更多 →

  • ADM_SOURCE

    ADM_SOURCE ADM_SOURCE视图显示数据库中所有存储过程或函数的信息,且提供存储过程或函数定义的字段。默认只有系统管理员权限才可以访问此系统视图,普通用户需要授权才可以访问。该视图同时存在于PG_CATA LOG 和SYS Schema下。 表1 ADM_SOURCE字段 名称

    来自:帮助中心

    查看更多 →

  • DB_SOURCE

    DB_SOURCE DB_SOURCE视图显示当前用户可访问的存储过程或函数信息,且提供存储过程或函数定义的字段。该视图同时存在于PG_CATALOG和SYS Schema下。 表1 DB_SOURCE字段 名称 类型 描述 owner name 对象的所有者。 name name

    来自:帮助中心

    查看更多 →

  • DB_SOURCE

    DB_SOURCE DB_SOURCE视图显示当前用户可访问的存储过程、函数、触发器、包的定义信息。该视图同时存在于PG_CATALOG和SYS Schema下。 表1 DB_SOURCE字段 名称 类型 描述 owner name 对象的所有者。 name name 对象名字。

    来自:帮助中心

    查看更多 →

  • 配置ClickHouse表为只读表模式

    安装客户端,具体请参考安装 MRS 客户端章节。 使用root用户登录安装客户端的节点,执行以下命令: cd 客户端安装目录 source bigdata_env 如果当前集群为安全模式(开启Kerberos认证),执行以下命令认证当前用户,如果当前集群为普通模式(关闭Kerberos认证),则无需执行本步骤。

    来自:帮助中心

    查看更多 →

  • ALM-45444 ClickHouse进程异常

    告警”,查看当前告警“定位信息”中的角色名以及确认主机名所在的IP地址。 以客户端安装用户,登录客户端的节点,执行如下命令: cd {客户端安装路径} source bigdata_env 集群已启用Kerberos认证(安全模式): kinit 组件业务用户 clickhouse client --host

    来自:帮助中心

    查看更多 →

  • HDFS客户端使用实践

    以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit 组件业务用户 执行HDFS Shell命令。例如:

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。 kinit developuser 执行以下命令在HDFS创建目录并上传样例工程到该目录。

    来自:帮助中心

    查看更多 →

  • 导入并配置Oozie样例工程

    登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。 kinit developuser 执行以下命令在HDFS创建目录并上传样例工程到该目录。

    来自:帮助中心

    查看更多 →

  • 配置HBase数据压缩格式和编码

    以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

    来自:帮助中心

    查看更多 →

  • 配置HBase数据压缩格式和编码

    以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。

    来自:帮助中心

    查看更多 →

  • 配置Hive动态脱敏

    有HiveServer实例。 以客户端安装用户登录安装了Hive客户端节点,执行如下命令: cd 客户端安装目录 source bigdata_env source Hive/component_env kinit 组件业务用户(集群未启用Kerberos认证(普通模式)请跳过该操作)

    来自:帮助中心

    查看更多 →

  • 使用HDFS Colocation存储Hive表

    执行以下命令,切换到客户端安装目录,如:/opt/client。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 若集群为安全模式,执行以下命令认证用户。 kinit MRS用户名 通过HDFS接口创建<groupid> hdfs colocationadmin

    来自:帮助中心

    查看更多 →

  • 建立Hive表分区提升查询效率

    以root用户登录已安装Hive客户端的节点。 执行以下命令,进入客户端安装目录,例如“/opt/client”。 cd /opt/client 执行source bigdata_env命令,配置客户端环境变量。 在客户端中执行如下命令,执行登录操作。 kinit 用户名 执行以下命令登录客户端工具。 beeline

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    ut_data1.txt,input_data2.txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    ut_data1.txt,input_data2.txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    ut_data1.txt,input_data2.txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了