MRS作业简介
MRS作业是MRS为用户提供的程序执行平台,用于处理和分析用户数据。作业创建完成后,所有的作业列表信息展示在“作业管理”页面中,您可以查看所有的作业列表,也可以创建和管理作业。若集群详情页面不支持“作业管理”页签,请通过后台方式提交作业。
MRS集群处理的数据源来源于OBS或HDFS,HDFS是Hadoop分布式文件系统(Hadoop Distributed File System),OBS即对象存储服务,是一个基于对象的海量存储服务,为客户提供海量、安全、高可靠、低成本的数据存储能力。MRS可以直接处理OBS中的数据,客户可以基于管理控制台Web界面和OBS客户端对数据进行浏览、管理和使用,同时可以通过REST API接口方式单独或集成到业务程序进行管理和访问数据。
用户创建作业前需要将本地数据上传至OBS系统,MRS使用OBS中的数据进行计算分析。当然MRS也支持将OBS中的数据导入至HDFS中,使用HDFS中的数据进行计算分析。数据完成处理和分析后,您可以将数据存储在HDFS中,也可以将集群中的数据导出至OBS系统。需要注意,HDFS和OBS也支持存储压缩格式的数据,目前支持存储bz2、gz压缩格式的数据。
作业分类
目前MRS集群支持创建和管理如下几种类型的作业。如果处于“运行中”状态的集群创建作业失败,请查看集群管理页面中相关组件健康情况。操作方法,请参见查看和定制集群监控指标。
- MapReduce:提供快速并行处理大量数据的能力,是一种分布式数据处理模式和执行环境。MRS当前支持提交MapReduce Jar程序。
- Spark:基于内存进行计算的分布式计算框架,MRS当前支持提交SparkSubmit、Spark Script和Spark SQL作业。
- SparkSubmit:支持提交Spark Jar和Spark python程序,执行Spark application,计算和处理用户数据。
- SparkScript:支持提交SparkScript脚本,批量执行Spark SQL语句。
- Spark SQL:运用Spark提供的类似SQL的Spark SQL语言,实时查询和分析用户数据。
- Hive:建立在Hadoop基础上的开源的数据仓库。MRS当前支持提交HiveScript脚本,和执行Hive SQL语句。
- Flink:提供一个分布式大数据处理引擎,可对有限数据流和无限数据流进行有状态计算。
作业列表
作业列表默认按时间顺序排列,时间最近的作业显示在最前端。各类作业列表参数说明如表 1所示。
参数 |
参数说明 |
---|---|
作业名称/ID |
作业的名称,新增作业时配置。 ID是作业的唯一标识,作业新增后系统自动赋值。 |
用户名称 |
提交作业的用户名称。 |
作业类型 |
支持的作业类型:
说明:
|
状态 |
显示作业的状态。
|
执行结果 |
显示作业执行完成的结果。
说明:
作业执行成功或失败后都不能再次执行,只能新增作业,配置作业参数后重新提交作业。 |
队列名称 |
提交作业用户绑定的队列的名称。 |
作业提交时间 |
记录作业提交的开始时间。 |
作业结束时间 |
记录作业执行完成或手工停止的时间。 |
操作 |
|
按钮 |
说明 |
---|---|
|
选择提交作业的时间区间,筛选在对应时间区间内提交的作业。 |
|
在下拉框中选择作业执行结果,筛选作业。
|
|
在下拉框中选择作业类型,筛选作业。
|
|
在搜索框中根据搜索条件输入对应内容,单击,搜索作业。
|
|
单击,手动刷新作业列表。 |
作业执行权限说明
对于开启Kerberos认证的安全集群,用户在MRS界面提交作业时,要先执行IAM用户同步操作,同步完成后会在MRS系统中产生同IAM用户名的用户。IAM同步用户是否有提交作业权限,取决于IAM同步时,用户所绑定的IAM策略,提交作业策略请参考IAM用户同步MRS说明章节中表1。
用户提交作业,如果涉及到具体组件的资源使用,如HDFS的目录访问、Hive表的访问等相关组件的权限时,需由admin(Manager管理员)用户进行授权,给提交作业用户赋予相关组件权限。具体操作如下: