使用DataArts Studio开发AI DataLake作业
在AI DataLake完成引擎端点的配置后,您就已经具备了提交作业的必要条件:计算资源和引擎的配置。
接下来将要依托DataArts Studio的作业开发模块完成数据查询、数据处理等任务。本节操作介绍使用DataArts Studio完成作业开发的关键操作指导。
在AI DataLake的快速入门中,以Aura Job为例介绍了完整的作业开发流程,了解更多请参见快速上手使用AI DataLake查询数据。
作业开发前的准备工作
- 开通DataArts Studio。
- 已在DataArts Studio创建工作空间。
创建并开发作业
- 新建作业:当前提供两种作业类型:批处理和实时处理,分别应用于批量数据处理和实时连接性数据处理,其中批处理作业支持Pipeline和单节点作业两种模式,具体请参见新建作业。
- 开发作业:基于新建的作业,进行作业开发,您可以进行编排、配置节点。具体请参见开发Pipeline作业。
- 调度作业:配置作业调度任务。具体请参见调度作业。
- 如果您的作业是批处理作业,您可以配置作业级别的调度任务,即以作业为一个整体进行调度,支持单次调度、周期调度、事件驱动调度三种调度方式。具体请参见配置作业调度任务(批处理作业)。
- 如果您的作业是实时处理作业,您可以配置节点级别的调度任务,即每一个节点可以独立调度,支持单次调度、周期调度、事件驱动调度三种调度方式。具体请参见配置节点调度任务(实时作业)。
- 提交版本并解锁:作业调度配置完成后,您需要提交版本并解锁,提交版本并解锁后才能用于调度运行,便于其他开发者修改。具体请参见提交版本。
- (可选)管理作业:作业开发完成后,您可以根据需要,进行作业管理。具体请参见(可选)管理作业。
- 发布作业。企业模式下需要发布作业,具体请参见发布作业任务。
在AI DataLake Aura端点页面查看作业运行信息
- 登录AI DataLake管理控制台。
- 在页面左上角切换至对应的工作空间。
- 在左侧导航栏选择“引擎管理 > 多模数据引擎Aura”进入Aura引擎端点列表页面,单击运行作业的端点名称进入概览页面。
- 选择“作业运行历史”,在列表中即可查看作业的运行状态,“成功”即表示作业执行成功。
- 也可单击“查看详情”查看作业详细信息。
表1 作业运行详情 参数
参数说明
示例
作业运行名称
运行的作业名称。
-
运行状态
作业的运行状态。
- 成功:作业运行成功。
- 失败:作业运行失败。
- 停止中:正在停止作业。
- 运行中:正在运行作业。
- 已停止:作业停止成功。
成功
运行端点名称
运行作业的Aura端点名称。
test
作业运行 ID
运行的作业ID。
-
创建时间
创建作业的时间。
2026/04/07 11:36:38 GMT+08:00
运行时长 (秒)
作业的运行时长。
4664
Job 版本
Job版本。
-
创建人
创建作业的用户名称。
-
日志组 ID
对接LTS后,存储日志的日志组ID。
-
日志流 ID
对接LTS后,存储日志的日志流组ID。
-
作业参数
作业配置的相关参数。
-
