数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    spark 查看作业队列信息 更多内容
  • Spark作业使用咨询

    Spark作业使用咨询 DLI Spark作业是否支持定时周期任务作业 DLI Spark不支持作业调度,用户可以通过其他服务,例如 数据湖 管理治理中心 DataArts Studio 服务进行调度,或者通过API/SDK等方式对作业进行自定义调度 。 使用DataArts Studi

    来自:帮助中心

    查看更多 →

  • Spark 2.4.5版本说明

    支持统计SQL作业的CPU消耗 支持在控制台查看“CPU累计使用量”。 支持容器集群Spark日志跳转查看 需要在容器查看日志。 支持动态加载UDF(公测) 无需重启队列UDF即可生效。 Spark UI支持火焰图 Spark UI支持绘制火焰图。 优化SQL作业NOT IN语句查询性能

    来自:帮助中心

    查看更多 →

  • DLI弹性资源池和队列类

    DLI弹性资源池和队列类 怎样查看弹性资源池和作业的资源使用情况? 怎样判断当前DLI队列中的作业是否有积压? 怎样查看DLI队列负载? 怎样监控DLI队列上的作业异常? 怎样将老版本的Spark队列切换成通用型队列 在default队列执行DLI SQL失败,提示超时异常怎么办?

    来自:帮助中心

    查看更多 →

  • 创建并提交Spark作业

    包。 查询组内资源包:确认上传的资源包是否正确。 创建批处理作业:创建并提交Spark批处理作业查询批处理作业状态:查看批处理作业状态。 查询批处理作业日志:查看批处理作业日志。 操作步骤 创建弹性资源池elastic_pool_dli 接口相关信息 URI格式:POST /

    来自:帮助中心

    查看更多 →

  • 怎样排查DLI计费异常?

    需资源使用中的扣费异常。 SQL作业 登录DLI管理控制台。 进入“作业管理”>“SQL作业”页面。 查看需要确认的作业详情,确认在扣费时间段内是否有以下操作: 是否使用自建的队列。 是否执行SQL作业。 如果使用了按需的弹性资源池下的队列执行作业,默认的计费模式是按CU时计费。

    来自:帮助中心

    查看更多 →

  • 查看MRS作业详情和日志

    查看 MRS 作业详情和日志 用户通过管理控制台可在线查看当前MRS集群内所有作业的状态详情,以及作业的详细配置信息和运行日志信息。 由于Spark SQL和Distcp作业在后台无日志,因此运行中的Spark SQL和Distcp作业不能在线查看运行日志信息查看作业状态 登录MRS管理控制台。

    来自:帮助中心

    查看更多 →

  • 创建批处理作业

    String 批处理作业执行成功。 recovering String 批处理作业正在恢复。 请求示例 创建Spark作业作业Spark主类为“org.apache.spark.examples.SparkPi”,指定程序包batchTest/spark-examples_2.11-2

    来自:帮助中心

    查看更多 →

  • 怎样将老版本的Spark队列切换成通用型队列

    怎样将老版本的Spark队列切换成通用型队列 当前DLI服务包括“SQL队列”和“通用队列”两种队列类型。 其中,“SQL队列”用于运行SQL作业,“通用队列”兼容老版本的Spark队列,用于运行Spark作业和Flink作业。 通过以下步骤,可以将老版本的“Spark队列”转换为新的“通用队列”。

    来自:帮助中心

    查看更多 →

  • Spark作业相关API

    Spark作业相关API 创建批处理作业 查询批处理作业列表 查询批处理作业详情 查询批处理作业状态 取消批处理作业

    来自:帮助中心

    查看更多 →

  • Spark 3.3.1版本说明

    支持容器集群Spark日志跳转查看 需要在容器查看日志。 支持动态加载UDF(公测) 无需重启队列UDF即可生效。 Spark UI支持火焰图 Spark UI支持绘制火焰图。 优化SQL作业NOT IN语句查询性能 NOT IN语句查询性能提升。 优化Multi-INSERT语句查询性能 Multi-INSERT语句查询性能提升。

    来自:帮助中心

    查看更多 →

  • Spark作业开发类

    Spark作业开发类 Spark作业使用咨询 Spark如何将数据写入到DLI表中 通用队列操作OBS表如何设置AK/SK 如何查看DLI Spark作业的实际资源使用情况 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库?

    来自:帮助中心

    查看更多 →

  • 管理Spark作业模板

    法。 新建Spark作业模板 Spark作业模板的创建方法是在创建Spark作业时,可直接将配置完成的作业信息设置为模板。 在DLI管理控制台的左侧导航栏中,单击“作业模板”>“Spark模板”,页面跳转至Spark作业页面。 参考创建Spark作业配置作业参数。 作业编辑完成后,单击“设为模板”。

    来自:帮助中心

    查看更多 →

  • 使用Livy提交Spark Jar作业

    使用Livy提交Spark Jar作业 DLI Livy简介 DLI Livy是基于开源的Apache Livy用于提交Spark作业到DLI的客户端工具。 准备工作 创建DLI队列。在“队列类型”中选择“通用队列”,即Spark作业的计算资源。具体请参考创建队列。 准备一个li

    来自:帮助中心

    查看更多 →

  • 在Hue WebUI使用作业浏览器

    Browser”显示的数字表示集群中所有作业的总数。 “Job Browser”将显示作业以下信息: 表1 MRS作业属性介绍 属性名 描述 “Logs” 表示作业的日志信息。如果作业有输出日志,则显示。 “ID” 表示作业的编号,由系统自动生成。 “Name” 表示作业的名称。 “Application

    来自:帮助中心

    查看更多 →

  • 队列属性设置

    队列属性设置 操作场景 DLI支持在队列创建完成后设置队列的属性。 当前支持设置队列Spark driver的相关参数:通过设置队列Spark driver,以提升队列资源的调度效率。 本节操作介绍在管理控制台设置队列属性的操作步骤。 约束与限制 仅Spark引擎的SQL队列支持配置队列属性。

    来自:帮助中心

    查看更多 →

  • 配置Spark事件队列大小

    配置Spark事件队列大小 配置场景 Spark中见到的UI、EventLog、动态资源调度等功能都是通过事件传递实现的。事件有SparkListenerJobStart、SparkListenerJobEnd等,记录了每个重要的过程。 每个事件在发生后都会保存到一个队列中,Dr

    来自:帮助中心

    查看更多 →

  • 配置Spark事件队列大小

    配置Spark事件队列大小 配置场景 Spark中的UI、EventLog、动态资源调度等功能都是通过事件传递实现的。事件有SparkListenerJobStart、SparkListenerJobEnd等,记录了每个重要的过程。 每个事件在发生后都会保存到一个队列中,Driv

    来自:帮助中心

    查看更多 →

  • Java SDK概述

    SDK使用说明。 Flink作业相关 介绍新建Flink作业查询作业详情、查询作业列表等Java SDK使用说明。 Spark作业相关 介绍提交Spark作业查询所有Spark作业、删除Spark作业等Java SDK使用说明。 Flink作业模板相关 介绍新建Flink作业模板、更新Fl

    来自:帮助中心

    查看更多 →

  • SQL作业运行慢如何定位

    可能原因2:数据倾斜 判断当前作业运行慢是否是数据倾斜导致: 登录DLI控制台,单击“作业管理 > SQL作业”。 在SQL作业页面,在对应作业所在行,单击按钮,查看作业详情信息,获取作业ID。 图9 获取作业ID 在对应作业的“操作”列,单击“Spark UI”,进入到Spark UI页面。 在“Spark

    来自:帮助中心

    查看更多 →

  • 开发SQL脚本

    。 资源队列 输入执行作业的资源队列。 Impala SQL、Hive SQL、HetuEngine SQL只能手动输入,不支持选择。 选择执行DLI作业的资源队列。当脚本为DLI SQL时,配置该参数。选择了资源队列以后,单击可以查看队列性能,系统支持查看DLI运行作业数和队列

    来自:帮助中心

    查看更多 →

  • 查看弹性资源池扩缩容历史

    查看弹性资源池扩缩容历史 操作场景 当弹性资源池添加队列、删除队列,或添加的队列扩缩容时,可能会引起弹性资源CUs扩缩容变化。控制台提供的“扩缩容历史”功能,可以查看弹性资源池的CUs变化历史。 弹性资源池缩容可能会触发Spark作业和SQL作业内部自动重试,当作业重试超过限制会导致作业执行失败,需用户重新执行作业。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了