客户端使用 更多内容
  • 客户端使用类

    客户端使用类 如何关闭ZooKeeper的SASL认证? 在 MRS 集群外客户端中执行kinit报错“Permission denied”如何处理?

    来自:帮助中心

    查看更多 →

  • Git客户端使用

    Git客户端使用 背景信息 使用Git客户端前,需要了解Git安装、创建新仓库、检出仓库、工作流、添加与提交、推送改动、创建分支、更新与合并分支、创建标签、替换本地改动等基本操作。 前提条件 已安装Git客户端。 使用流程 Git客户端基本使用流程如下图所示。 表1 使用流程说明

    来自:帮助中心

    查看更多 →

  • 客户端使用建议

    客户端使用建议 Consumer使用建议 Consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 Consumer不能频繁加入和退出group,频繁加入和

    来自:帮助中心

    查看更多 →

  • HBase客户端使用实践

    HBase客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用HBase客户端。 前提条件 已安装客户端。例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。

    来自:帮助中心

    查看更多 →

  • HDFS客户端使用实践

    HDFS客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用HDFS客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全模式下,“

    来自:帮助中心

    查看更多 →

  • Hive客户端使用实践

    Hive客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用Hive客户端。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全

    来自:帮助中心

    查看更多 →

  • Spark客户端使用实践

    Spark客户端使用实践 本章节提供从零开始使用Spark2x提交spark应用程序,包括Spark Core及Spark SQL。其中,Spark Core为Spark的内核模块,主要负责任务的执行,用于编写spark应用程序;Spark SQL为执行SQL的模块。 场景说明

    来自:帮助中心

    查看更多 →

  • Kafka客户端使用实践

    Kafka客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用Kafka客户端。 本章节适用于MRS 3.x及后续版本。 前提条件 已安装客户端。例如安装目录为“/opt/client”。 各组件业务用户由MRS集群管理员根据业务需要创建。“机机”用户需要下载key

    来自:帮助中心

    查看更多 →

  • HDFS客户端使用实践

    HDFS客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用HDFS客户端。 前提条件 已安装客户端。 例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全模式下,“

    来自:帮助中心

    查看更多 →

  • Impala客户端使用实践

    Impala客户端使用实践 Impala是用于处理存储在Hadoop集群中的大量数据的MPP(大规模并行处理)SQL查询引擎。 它是一个用C++和Java编写的开源软件。 与其他Hadoop的SQL引擎相比,它拥有高性能和低延迟的特点。 背景信息 假定用户开发一个应用程序,用于管

    来自:帮助中心

    查看更多 →

  • HBase客户端使用实践

    HBase客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用HBase客户端。 操作视频 该视频为您介绍如何在MRS集群创建成功后,通过登录HBase客户端实现创建表,往表中插入数据并修改表数据等功能。 因不同版本操作界面可能存在差异,相关视频供参考,具体以实际环境为准。

    来自:帮助中心

    查看更多 →

  • Kafka客户端使用建议

    Kafka客户端使用建议 consumer使用建议 consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 通常不建议对每条消息都进行commit,如果对

    来自:帮助中心

    查看更多 →

  • Hive客户端使用实践

    Hive客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用Hive客户端。 前提条件 已安装客户端,例如安装目录为“/opt/hadoopclient”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全

    来自:帮助中心

    查看更多 →

  • Spark客户端使用实践

    Spark客户端使用实践 本章节提供从零开始使用Spark2x提交spark应用程序,包括Spark Core及Spark SQL。其中,Spark Core为Spark的内核模块,主要负责任务的执行,用于编写spark应用程序;Spark SQL为执行SQL的模块。 场景说明

    来自:帮助中心

    查看更多 →

  • Flink客户端使用实践

    Flink客户端使用实践 本节提供使用Flink运行wordcount作业的操作指导。 前提条件 MRS集群中已安装Flink组件。 集群正常运行,已安装集群客户端,例如安装目录为“/opt/hadoopclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Flink客户端

    来自:帮助中心

    查看更多 →

  • Kafka客户端使用实践

    Kafka客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用Kafka客户端。 本章节适用于MRS 3.x及后续版本。 前提条件 已安装集群客户端,例如安装目录为“/opt/client”。 各组件业务用户由MRS集群管理员根据业务需要创建。“机机”用户需要下载k

    来自:帮助中心

    查看更多 →

  • Sqoop客户端使用实践

    Sqoop客户端使用实践 Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(MySQL、PostgreSQL...)间进行数据的传递,可以将一个关系型数据库(例如:MySQL、Oracle、PostgreSQL等)中的数据导进到Hadoop的HDFS中

    来自:帮助中心

    查看更多 →

  • Flink客户端使用实践

    Flink客户端使用实践 本节提供使用Flink运行wordcount作业的操作指导。 前提条件 MRS集群中已安装Flink组件。 集群正常运行,已安装集群客户端,例如安装目录为“/opt/hadoopclient”。以下操作的客户端目录只是举例,请根据实际安装目录修改。 使用Flink客户端(MRS

    来自:帮助中心

    查看更多 →

  • 各组件客户端使用实践

    各组件客户端使用实践 使用ClickHouse客户端 使用Flink客户端 使用Flume客户端 使用HBase客户端 使用HDFS客户端 使用Hive客户端 使用Impala客户端 使用Kafka客户端 使用Kudu客户端 Oozie客户端配置说明 使用Storm客户端 使用Yarn客户端

    来自:帮助中心

    查看更多 →

  • TortoiseGit客户端使用

    TortoiseGit客户端使用 生成PPK文件 使用TortoiseGit作为客户端时,下载和提交代码需要PPK文件,主要有如下两种场景: Git客户端生成了公私钥对,并将该公钥添加到代码仓库的ssh-key配置中 在“开始”菜单,搜索并选择“PuttyGen”。 单击“Load”按钮,如下图所示。

    来自:帮助中心

    查看更多 →

  • IoTDB客户端使用实践

    IoTDB客户端使用实践 操作场景 该任务指导用户在运维场景或业务场景中使用IoTDB客户端。 前提条件 已安装客户端。例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。安全模式下,

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了