更新时间:2022-07-01 GMT+08:00

提交Spark作业

使用DLI提交Spark作业进行实时计算。基本流程如下:

步骤1:登录云

步骤2:上传数据至OBS

步骤3:登录DLI管理控制台

步骤4:创建队列

步骤5:创建程序包

步骤6:提交Spark作业

步骤1:登录云

使用DLI服务,首先要登录云。

  1. 打开产品首页。
  2. 在登录页面输入“账户名”“密码”,单击“登录”

步骤2:上传数据至OBS

提交Spark作业之前,需要在OBS中上传数据文件。

  1. 在服务列表中,单击“存储”中的“对象存储服务OBS”。
  2. 进入OBS管理控制台页面。
  3. 创建一个桶,桶名全局唯一,这里以桶名“obs1”为例。
    1. 单击“创建桶”
    2. 进入“创建桶”页面,输入“桶名称”。
    3. 单击“立即创建”。
  4. 单击所建桶“obs1”,进入“概览”页面。
  5. 单击左侧列表中的“对象”,选择“上传文件”,将需要上传的文件,例如“spark-examples.jar”上传到指定目录,单击“确定”

    文件上传成功后,待分析的文件路径为“obs://obs1/spark-examples.jar”

    关于OBS管理控制台更多操作请参考《对象存储服务控制台指南》。

    针对大文件场景,由于OBS管理控制台对文件大小和数量限制较多,所以推荐使用OBS工具上传大文件,如OBS Browser+或obsutil工具上传。OBS Browser+是一个比较常用的图形化工具,,支持完善的桶管理和对象管理操作。推荐使用此工具创建桶或上传对象。obsutil是一款用于访问管理OBS的命令行工具,对于熟悉命令行程序的用户,obsutil是执行批量处理、自动化任务的好的选择。OBS上传文件指导,请参见《OBS工具指南》。

步骤3:登录DLI管理控制台

使用DLI提交Spark作业,需要先进入Spark作业编辑页面。

  1. “EI企业智能”列表中,选择“数据湖探索 DLI”
  2. 进入DLI管理控制台页面。第一次进入数据湖探索管理控制台需要进行授权,以获取访问OBS的权限。

步骤4:创建队列

第一次提交Spark作业,需要先创建队列,例如创建名为“test”的队列。创建队列详细介绍请参考创建队列

步骤5:创建程序包

提交Spark作业之前需要创建程序包,例如“spark-examples.jar”。详细介绍请参考创建程序包

步骤6:提交Spark作业

  1. 在DLI管理控制台,单击左侧导航栏中的“作业管理”>“Spark作业”,进入创建Spark作业页面。
  2. 在Spark作业编辑页面中,输入相关参数,具体请参考界面说明中关于Spark作业编辑页面的说明。
  3. 单击Spark作业编辑页面右上方“执行”,阅读并同意隐私协议,单击“确定”。提交作业,页面显示“作业提交成功”。
  4. (可选)可到“作业管理”>“Spark作业”页面查看提交作业的状态及日志。

    在DLI管理控制台第一次单击“执行”操作时,需要阅读隐私协议,同意确定后,后续操作将不会再提示。