运行SparkSql作业
用户可将自己开发的程序提交到MRS中,执行程序并获取结果,本章节指导您如何在MRS集群中提交一个SparkSql作业。
SparkSql作业用于查询和分析数据,包括SQL语句和Script脚本两种形式,如果SQL语句涉及敏感信息,也可使用脚本文件方式提交。
用户可以在MRS管理控制台在线创建一个作业并提交运行,也可以通过MRS集群客户端来以命令行形式提交作业。
操作视频
本视频以在MRS集群的管理控制台上提交并查看SparkSql作业为例进行说明。
因不同版本操作界面可能存在差异,相关视频供参考,具体以实际环境为准。
前提条件
- 用户已经将作业所需的程序包和数据文件上传至OBS或HDFS文件系统中。
- 如果作业程序需要读取以及分析OBS文件系统中的数据,需要先配置MRS集群的存算分离,请参考配置MRS集群存算分离。
通过管理控制台提交作业
- 登录MRS管理控制台。
- 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。
- 在“概览”页签的基本信息区域,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。
集群开启Kerberos认证时需执行该步骤,若集群未开启Kerberos认证,无需执行本步骤。
- IAM用户同步完成后,请等待5分钟,再进行提交作业,更多IAM用户同步说明请参考IAM用户同步MRS集群说明。
- 当IAM用户的用户组的所属策略从MRS ReadOnlyAccess向MRS CommonOperations、MRS FullAccess、MRS Administrator变化时,或者反之从MRS CommonOperations、MRS FullAccess、MRS Administrator向MRS ReadOnlyAccess变化时,由于集群节点的SSSD(System Security Services Daemon)缓存刷新需要时间,因此用户同步完成后,请等待5分钟,待新策略生效之后,再进行提交作业,否则会出现提交作业失败的情况。
- 当前IAM用户名中存在空格时(例如admin 01),不支持添加作业。
- 单击“作业管理”,在作业列表界面单击“添加”。
- “作业类型”选择“SparkSql”并参考表1配置SparkSql作业信息。
图1 添加SparkSql作业
表1 作业配置信息 参数
描述
示例
作业名称
作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~64个字符。
sparksql
SQL类型
SQL查询语句提交类型。
- SQL:直接运行手动输入的SQL语句。
- Script:以加载HDFS或者OBS中的SQL脚本文件运行SQL。
SQL
SQL语句
“SQL类型”参数为“SQL”时参数有效,请输入待运行的SQL语句,然后单击“检查”来检查SQL语句的正确性,确保输入语句正确。
如果同时需要提交多条语句并执行,使用“;”分隔不同语句。
-
SQL文件
“SQL类型”参数为“Script”时参数有效,待执行SQL文件的路径,需要满足以下要求。
待执行SQL脚本文件地址,可直接手动输入地址路径,也可单击“HDFS”或者“OBS”选择文件。
- 最多为1023字符,不能包含;|&>,<'$特殊字符,且不可为空或全空格。
- OBS程序路径地址以“obs://”开头,例如“obs://wordcount/program/XXX.jar”。HDFS程序路径地址以“hdfs://”开头,例如“hdfs://hacluster/user/XXX.jar”。
- Script文件需要以“.sql”结尾。
obs://wordcount/program/test.sql
运行程序参数
可选参数,为本次执行的作业配置相关优化参数(例如线程、内存、CPU核数等),用于优化资源使用效率,提升作业的执行性能。
SparkSql作业常用的运行程序参数如表2所示,可根据执行程序及集群资源情况进行配置。
-
服务配置参数
可选参数,用于为本次执行的作业修改服务配置参数。
该参数的修改仅适用于本次执行的作业,如需对集群永久生效,请参考修改MRS集群组件配置参数进行集群组件配置参数的修改。
如需添加多个参数,请单击右侧的“添加”按钮。
例如增加以下服务配置参数:
- fs.obs.access.key:通过AK/SK方式访问OBS时访问OBS的密钥ID。
- fs.obs.secret.key:通过AK/SK方式访问OBS时访问OBS与密钥ID对应的密钥。
-
命令参考
用于展示提交作业时提交到后台执行的命令。
mrs-spark-sql-wrapper -e
- 确认作业配置信息,单击“确定”,完成作业的新增。
- 作业提交成功中,可在作业列表中查看作业运行状态及执行结果,等待作业状态变为“已完成”,可查看相关程序分析结果。
通过集群客户端提交作业
- 安装MRS集群客户端,具体操作可参考安装MRS集群客户端。
MRS集群中默认安装了一个客户端用于作业提交,也可直接使用该客户端。MRS 3.x及之后版本客户端默认安装路径为Master节点上的“/opt/Bigdata/client”,MRS 3.x之前版本为Master节点上的“/opt/client”。
- 如果当前集群已开启Kerberos认证,参考创建MRS集群用户页面,创建一个用于提交作业的用户。
如果当前集群未开启Kerberos认证,则无需执行本步骤。
本示例创建一个机机用户,并分配了正确的用户组(hadoop、supergroup)、主组(supergroup)和角色权限(System_administrator、default)。
用户创建成功后,下载认证凭据文件:- 对于MRS 3.x及之后版本集群,请登录FusionInsight Manager页面选择“系统 > 权限 > 用户”,在新增用户的操作列单击“更多 > 下载认证凭据”。
- 对于MRS 2.x及之前版本集群,请登录MRS Manager页面选择“系统设置 > 用户管理”,在新增用户的操作列单击“更多 > 下载认证凭据”。
上传用户认证凭据到集群客户端节点的“/opt”目录下。
- 使用MRS集群客户端安装用户登录客户端所在的节点。
- 执行如下命令解压用户认证凭据文件,得到“user.keytab”和“krb5.conf”两个文件。
cd /opt
tar -xvf XXX_keytab.tar
- 执行以下命令初始化环境变量。
cd /opt/Bigdata/client
source bigdata_env
cd $SPARK_HOME
- 进入spark-sql命令行后执行SQL语句。
./bin/spark-sql --conf spark.yarn.principal=MRSTest --conf spark.yarn.keytab=/opt/user.keytab
若需要执行SQL文件,需要提前上传SQL文件至客户端所在节点(例如上传到“/opt/”目录),然后执行以下命令:
./bin/spark-sql --conf spark.yarn.principal=MRSTest --conf spark.yarn.keytab=/opt/user.keytab -f /opt/script.sql- spark.yarn.principal:提交作业的用户名。
- spark.yarn.keytab:用户认证的keytab文件。