数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    华为 数据湖 dli 更多内容
  • 资源和成本规划

    该解决方案主要部署如下资源,每月花费如表1 资源和成本规划所示,具体请参考华为云官网价格详情,实际收费以账单为准: 表1 资源和成本规划 华为服务 规格条件 费用 对象存储服务 OBS 用户月成本明细,采用OBS标准单AZ存储 1G。 0.14元/月 数据湖探索 DLI 使用弹性资源池,最低规格64CU,每天创建并使用2小时,用完即删。

    来自:帮助中心

    查看更多 →

  • 使用Spark-submit提交Spark Jar作业

    南》。 DLI 客户端工具下载 您可以在DLI管理控制台下载DLI客户端工具。 登录DLI管理控制台。 单击总览页右侧“常用链接”中的“SDK下载”。 在“DLI SDK DOWNLOAD”页面,单击“dli-clientkit-<version>”即可下载DLI客户端工具。 D

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.10.0.300)

    表/文件迁移支持的数据数据源分类 源端数据源 对应的目的端数据源 说明 数据仓库 数据仓库服务(DWS) 数据仓库:数据仓库服务(DWS), 数据湖 探索DLI), MRS ClickHouse,Doris Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储: 对象存储服务 (OBS)

    来自:帮助中心

    查看更多 →

  • 终端节点

    从地区和终端节点中查询所有服务的终端节点。 数据湖探索的终端节点如下表所示,请您根据业务需要选择对应区域的终端节点。 表1 数据湖探索的终端节点 区 域名 称 区域 终端节点(Endpoint) 华北-北京四 cn-north-4 dli.cn-north-4.myhuaweicloud

    来自:帮助中心

    查看更多 →

  • 数据湖治理平台设计

    轻松完成整个数据的处理分析流程。 数据质量 数据全生命周期管控,数据处理全流程质量监控,异常事件实时通知。 数据目录 提供企业级的元数据管理,厘清信息资产。通过数据地图,实现数据血缘和数据全景可视,提供数据智能搜索和运营监控。 数据服务 数据服务定位于标准化的数据服务平台,提供一

    来自:帮助中心

    查看更多 →

  • 快速部署

    String 必填 子网ID,该模板使用已有子网,该解决方案创建的数据湖探索 DLI队列所在网段默认172.16.0.0/16,请确保所选子网网段不与DLI队列网段重合。该方案所涉及到的其他云服务资源将会部署在该子网下,查询子网ID请参考获取子网ID。 空 secgroup_name如果

    来自:帮助中心

    查看更多 →

  • 怎样监控DLI队列上的作业异常?

    怎样监控DLI队列上的作业异常? DLI为用户提供了作业失败的topic订阅功能。 登录DLI控制台。 单击左侧“队列管理”,进入队列管理页面。 在队列管理页面,单击左上角“创建消息通知主题”进行配置。详细操作请参考《数据湖探索用户指南》。 父主题: DLI弹性资源池和队列类

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.2.200)

    搜索:Elasticsearch, 云搜索服务 CSS ) 不支持DWS物理机纳管模式。 数据湖探索DLI) - MRS ClickHouse 数据仓库 :MRS ClickHouse,数据湖探索DLI) MRS ClickHouse建议使用的版本:21.3.4.X。 当前暂不支持对接

    来自:帮助中心

    查看更多 →

  • pyspark样例代码

    有四种保存类型: ErrorIfExis:如果已经存在数据,则抛出异常。 Overwrite:如果已经存在数据,则覆盖原数据。 Append:如果已经存在数据,则追加保存。 Ignore:如果已经存在数据,则不做操作。这类似于SQL中的“如果不存在则创建表”。 读取 CS S上的数据 1 2 jdbcDF

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.3.300)

    NoSQL: 表格存储服务 (CloudTable) 搜索:Elasticsearch, 云搜索 服务(CSS) 不支持DWS物理机纳管模式。 数据湖探索DLI) 数据仓库:数据仓库服务(DWS),数据湖探索DLI),MRS ClickHouse Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS)

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.3.300)

    NoSQL: 表格存储 服务(CloudTable) 搜索:Elasticsearch,云搜索服务(CSS) 不支持DWS物理机纳管模式。 数据湖探索DLI) 数据仓库:数据仓库服务(DWS),数据湖探索DLI),MRS ClickHouse Hadoop:MRS HDFS,MRS HBase,MRS Hive 对象存储:对象存储服务(OBS)

    来自:帮助中心

    查看更多 →

  • pyspark样例代码

    将写好的python代码文件上传至DLI中。控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《创建批处理作业》。

    来自:帮助中心

    查看更多 →

  • 数据迁移失败,提示超过DLI网管流控上限

    数据迁移失败,提示超过DLI网管流控上限 问题描述 进行大数据数据迁移失败,在数据湖探索的Spark作业查看报错信息为:The throttling thershold has been reached 问题分析 出现该问题,是因为您创建的资源数量已达到DLI服务流控限制阈值。 解决方法

    来自:帮助中心

    查看更多 →

  • java样例代码

    'krb5conf'='./krb5.conf','keytab'='./user.keytab','principal'='krbtest') "); 与未开启kerberos认证相比,开启了kerberos认证需要多设置三个参数,如表1所示。 表1 参数说明 参数名称与参数值 参数说明

    来自:帮助中心

    查看更多 →

  • 准备工作

    活状态。 开通DLI服务Spark 3.3和jar程序访问元数据白名单 数据迁移需要使用DLI服务的Spark 3.3特性和jar程序访问DLI数据特性,请联系DLI服务的技术支持人员申请开通。 (可选)开通DLI服务Spark生命周期白名单 如果待迁移的元数据有生命周期表(即

    来自:帮助中心

    查看更多 →

  • 使用DLI Flink作业实时同步Kafka数据至(GaussDB)DWS集群

    首先,通过Kafka生产以下三组数据,通过DLI Flink作业完成数据同步到数据仓库服务 GaussDB (DWS)。接着,需要修改id为2和3的用户为新的jim和tom,再通过DLI Flink作业完成数据的更新并同步到GaussDB(DWS)。 表1 样例数据 id name age

    来自:帮助中心

    查看更多 →

  • DataArts Studio支持连接哪些数据源?

    Studio对接数据源,即为通过管理中心创建数据源的数据连接。 DataArts Studio 管理中心数据连接与数据集成数据连接相互独立,使用场景各有不同。 管理中心的数据连接用于对接数据湖底座,DataArts Studio基于数据湖底座,提供一站式数据开发、治理和服务等能力。 数据集成的数据连接仅限于在数据集成中使

    来自:帮助中心

    查看更多 →

  • java样例代码

    开发说明 mongo只支持增强型跨源。只能使用包年包月队列。 DDS即文档数据服务,兼容MongoDB协议。 前提条件 在DLI管理控制台上已完成创建增强跨源连接,并绑定包年/包月队列。具体操作请参考《数据湖探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很

    来自:帮助中心

    查看更多 →

  • 使用DLI进行电商BI报表分析

    步骤1:上传数据。将数据上传到对象存储服务OBS,为后面使用DLI完成数据分析做准备。 步骤2:分析数据。使用DLI对待分析的数据进行查询。 具体样例数据及详细SQL语句可以通过数据包进行下载。 数据说明 为保护用户的隐私和数据安全,所有数据均已进行了采样和脱敏。 用户数据 表1 用户数据 字段名称 字段类型 字段说明

    来自:帮助中心

    查看更多 →

  • 分析数据

    CARBON类型。 如果原始数据表存储格式不满足要求,您可以通过 CDM 将原始数据直接导入到DLI中进行分析,无需上传OBS。 通过DLI分析数据 进入数据湖探索DLI控制台,参考DLI用户指南中的创建数据库创建数据库。 参考创建OBS表创建OBS外表,包括贸易统计数据库、贸易详单信息表和基础信息表。

    来自:帮助中心

    查看更多 →

  • 永洪BI对接准备工作

    永洪BI对接准备工作 操作场景 永洪BIDLI对接之前的准备工作。 操作步骤 (可选)在公有云管理控制台上方的“服务列表”中选择“大数据”中的“数据湖探索”,单击右上角的“常用链接”下载DLI JDBC驱动(例如:dli-jdbc-1.1.0-jar-with-dependencies-jdk1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了