创建Spark作业
Spark作业编辑页面支持执行Spark作业,为用户提供全托管式的Spark计算服务。
在总览页面,单击Spark作业右上角的“创建作业”,或在Spark作业管理页面,单击右上角的“创建作业”,均可进入Spark作业编辑页面。
进入Spark作业编辑页面,页面会提示系统将创建DLI临时数据桶。该桶用于存储使用DLI服务产生的临时数据,例如:作业日志、作业结果等。如果不创建该桶,将无法查看作业日志。可以通过配置生命周期规则实现定时删除OBS桶中的对象或者定时转换对象的存储类别。桶名称为系统默认。
如果不需要创建DLI临时数据桶,并且希望不再收到该提示,可以勾选“下次不再提示”并单击“取消”。
前提条件
- 请先将所要依赖的程序包通过“数据管理>程序包管理”页面上传至对应的OBS桶中。具体操作请参考创建程序包。
- 创建Spark作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。
- 当前Spark作业支持访问的外部数据源详情请参考DLI常用跨源分析开发方式。
- 创建跨源连接操作请参见配置DLI与数据源网络连通(增强型跨源连接)。
创建完跨源连接后,可以通过“资源管理 > 队列管理”页面,单击“操作”列“更多”中的“测试地址连通性”,验证队列到外部数据源之间的网络连通是否正常。详细操作可以参考测试地址连通性。
操作步骤
- 在DLI管理控制台的左侧导航栏中,单击“Spark作业”页面。
单击右上角的“创建作业”,在Spark作业编辑窗口,可以选择使用“表单模式”或者“API模式”进行参数设置。
以下以“表单模式”页面进行说明,“API模式”即采用API接口模式设置参数及参数值,具体请参考《数据湖探索API参考》。
> ,进入
- 选择运行队列。
- 选择Spark版本。在下拉列表中选择支持的Spark版本,推荐使用最新版本。
不建议长期混用不同版本的Spark/Flink引擎。
- 长期混用不同版本的Spark/Flink引擎会导致代码在新旧版本之间不兼容,影响作业的执行效率。
- 当作业依赖于特定版本的库或组件,长期混用不同版本的Spark/Flink引擎可能会导致作业因依赖冲突而执行失败。
- 作业配置。
参考表1配置作业参数。
图1 Spark作业配置
表1 作业配置参数说明 参数名称
参数描述
作业名称(--name)
设置作业名称。
应用程序
选择需要执行的程序包。包括“.jar”和“.py”两种类型。
Jar包的管理方式:
- 上传OBS管理程序包:提前将对应的jar包上传至OBS桶中。并在此处选择对应的OBS路径。
- 上传DLI管理程序包:提前将对应的jar包上传至OBS桶中,并在DLI管理控制台的创建程序包。 中创建程序包,具体操作请参考
Spark3.3.x及以上版本建议选择OBS路径下的程序包。
主类(--class)
输入主类名称。当应用程序类型为“.jar”时,主类名称不能为空。
应用程序参数
用户自定义参数,多个参数请以Enter键分隔。
应用程序参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为batch_num,可以使用{{batch_num}},在提交作业之后进行变量替换。
Spark参数(--conf)
以“key=value”的形式设置提交Spark作业的属性,多个参数以Enter键分隔。
Spark参数value支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为custom_class,可以使用"spark.sql.catalog"={{custom_class}},在提交作业之后进行变量替换。
说明:- Spark作业不支持自定义设置jvm垃圾回收算法。
- 如果选择Spark版本为3.1.1时,需在Spark参数(--conf)配置跨源作业的依赖模块。配置样例请参考表2。
作业特性
“所属队列”选择CCE队列时,设置该参数。表示用户作业使用的Spark镜像类型,具体说明如下:
- 基础型:DLI提供的基础镜像,运行非AI相关作业时选择“基础型”。
- 自定义镜像:自定义的Spark镜像,需要选择“容器镜像服务”中设置的镜像名称及版本。
依赖jar包(--jars)
运行spark作业依赖的jars。可以输入jar包名称,也可以输入对应jar包文件的OBS路径,格式为:obs://桶名/文件夹路径名/包名。
依赖python文件(--py-files)
运行spark作业依赖的py-files。可以输入Python文件名称,也可以输入Python文件对应的OBS路径,格式为:obs://桶名/文件夹路径名/文件名。
其他依赖文件(--files)
运行spark作业依赖的其他files。可以输入依赖文件名称,也可以输入对应的OBS路径,格式为:obs://桶名/文件夹路径名/文件名。
依赖分组
在创建程序包时,如果选择了分组,在此处选择对应的分组,则可以同时选中该分组中的所有程序包和文件。创建程序包操作请参考创建程序包。
访问元数据
是否通过Spark作业访问元数据。具体请参考《数据湖探索开发指南》。
是否重试
作业失败后是否进行重试。
选择“是”需要配置以下参数:
“最大重试次数”:设置作业失败重试次数,最大值为“100”。
高级配置
表2 Spark参数(--conf)配置跨源作业的依赖模块说明 数据源类型
样例
CSS
spark.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/css/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/css/*
DWS
spark.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/dws/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/dws/*
HBase
spark.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/hbase/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/hbase/*
OpenTSDB
park.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/opentsdb/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/opentsdb/*
RDS
spark.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/rds/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/rds/*
Redis
spark.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/redis/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/redis/*
Mongo
spark.driver.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/mongo/*
spark.executor.extraClassPath=/usr/share/extension/dli/spark-jar/datasource/mongo/*
图2 创建Spark作业-高级配置
- 高级包括以下两项参数:
- 选择依赖资源:具体参数请参考表3。
- 计算资源规格:具体参数请参考表4。
Spark资源并行度由Executor数量和Executor CPU核数共同决定。
任务可并行执行的最大Task数量=Executor个数 * Executor CPU核数。
您可以根据购买的队列资源合理规划计算资源规格。
需要注意的是,Spark任务执行需要driver、executor等多个角色共同调度完成,因此“Executor个数*Executor CPU核数”要小于队列的计算资源CU数,避免其他Spark任务角色无法启动。更多Spark任务角色的相关信息请参考Spark官方。
Spark作业参数计算公式:
- CU数=driver CPU核数+Executor个数*Executor CPU核数
- 内存数=driver内存+(Executor个数*Executor内存)
表3 选择依赖资源参数说明 参数名称
参数描述
modules
如果选择Spark版本为3.1.1时,无需选择Module模块, 需在Spark参数(--conf)配置跨源作业的依赖模块。
DLI系统提供的用于执行跨源作业的依赖模块访问各个不同的服务,选择不同的模块:- CloudTable/MRS HBase: sys.datasource.hbase
- DDS:sys.datasource.mongo
- CloudTable/MRS OpenTSDB: sys.datasource.opentsdb
- DWS: sys.datasource.dws
- RDS MySQL: sys.datasource.rds
- RDS PostGre: sys.datasource.rds
- DCS: sys.datasource.redis
- CSS: sys.datasource.css
DLI内部相关模块:
- sys.res.dli-v2
- sys.res.dli
- sys.datasource.dli-inner-table
资源包
运行spark作业依赖的jar包。
表4 计算资源规格参数说明 参数名称
参数描述
资源规格
下拉选择所需的资源规格。系统提供3种资源规格供您选择。
资源规格包含以下参数:
- Executor内存
- Executor CPU核数
- Executor个数
- driver CPU核数
- driver内存
最终配置结果以修改后数据为准。
Executor内存
在所选资源规格基础上自定义Executor内存规格。
代表每个Executor的内存。通常建议Executor CPU核数:Executor内存=1:4。
Executor CPU核数
用于设置Spark作业申请的每个Executor的CPU核数,决定每个Executor并行执行Task的能力。
Executor个数
用于设置Spark作业申请的Executor的数量。
driver CPU核数
用于设置driver CPU核数。
driver内存
用于设置driver内存大小,通常建议即driver CPU核数:driver内存=1:4。
- 完成作业的参数配置后,单击Spark作业编辑页面右上方“执行”,提交作业。