数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    Spark部署方案 更多内容
  • Spark on HBase程序

    Spark on HBase程序 场景说明 Java样例代码 Scala样例代码 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 开发Spark应用

    开发Spark应用 Spark Core样例程序 Spark SQL样例程序 通过JDBC访问Spark SQL样例程序 Spark读取HBase表样例程序 Spark从HBase读取数据再写入HBase样例程序 Spark从Hive读取数据再写入HBase样例程序 Spark S

    来自:帮助中心

    查看更多 →

  • 开发Spark应用

    开发Spark应用 Spark Core样例程序 Spark SQL样例程序 通过JDBC访问Spark SQL样例程序 Spark读取HBase表样例程序 Spark从HBase读取数据再写入HBase样例程序 Spark从Hive读取数据再写入HBase样例程序 Spark S

    来自:帮助中心

    查看更多 →

  • 使用Spark on CCE

    使用Spark on CCE 使用Spark的Kubernetes调度程序spark-submit,可以将Spark应用程序提交到Kubernetes集群中运行,详情请参见在Kubernetes上运行Spark。使用spark-submit提交Spark应用程序的工作原理如下:

    来自:帮助中心

    查看更多 →

  • 生产收货同步集成方案

    集成工作台 创建SparkPack 企业ERP连接器,通过SparkPack 企业ERP鉴权接口创建连接,连接SparkPack 企业ERP系统; 在SparkPack 企业ERP连接器中封装所需SparkPack 企业ERP接口,包括创建生产收货等; 在集成工作台创建流,每分钟重复

    来自:帮助中心

    查看更多 →

  • spark提交服务

    spark提交服务 服务分布: 表1 服务分布 服务名 服务器 安装目录 端口 data-spark-submit 10.190.x.x 10.190.x.x /app/dt/data-spark-submit 8087 安装spark提交服务 修改配置文件application-dev

    来自:帮助中心

    查看更多 →

  • Spark作业相关

    18 def submit_spark_batch_job(dli_client, batch_queue_name, batch_job_info): try: batch_job = dli_client.submit_spark_batch_job(batch_queue_name

    来自:帮助中心

    查看更多 →

  • 开发Spark应用

    开发Spark应用 Spark Core样例程序 Spark SQL样例程序 通过JDBC访问Spark SQL样例程序 Spark读取HBase表样例程序 Spark从HBase读取数据再写入HBase样例程序 Spark从Hive读取数据再写入HBase样例程序 Spark S

    来自:帮助中心

    查看更多 →

  • 开发Spark应用

    开发Spark应用 Spark Core程序 Spark SQL程序 Spark Streaming程序 通过JDBC访问Spark SQL的程序 Spark on HBase程序 从HBase读取数据再写入HBase 从Hive读取数据再写入HBase Streaming从Kafka读取数据再写入HBase

    来自:帮助中心

    查看更多 →

  • Spark Core程序

    Spark Core程序 场景说明 Java样例代码 Scala样例代码 Python样例代码 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • Spark接口介绍

    Spark接口介绍 Spark Java API接口介绍 Spark Scala API接口介绍 Spark Python接口介绍 Spark REST API接口介绍 Spark ThriftServer接口介绍 Spark常用命令介绍 父主题: Spark应用开发常见问题

    来自:帮助中心

    查看更多 →

  • 创建Spark作业

    创建Spark作业 Spark作业编辑页面支持执行Spark作业,为用户提供全托管式的Spark计算服务。 在总览页面,单击Spark作业右上角的“创建作业”,或在Spark作业管理页面,单击右上角的“创建作业”,均可进入Spark作业编辑页面。 进入Spark作业编辑页面,页面

    来自:帮助中心

    查看更多 →

  • MRS Spark Python

    您需要先在数据安全服务队列权限功能中,配置对应的队列后,才能在此处选择到已配置的队列。当有多处同时配置了资源队列时,此处配置的资源队列为最高优先级。 SQL脚本 是 仅“脚本类型”配置为“在线脚本”时可以配置。 选择已创建的Spark Python脚本。 脚本参数 否 仅“脚本类型”配置为“在线脚本”时可以配置。

    来自:帮助中心

    查看更多 →

  • 可以设置批量部署、增量部署等部署策略吗?

    可以设置批量部署、增量部署部署策略吗? 目前页面上还没有提供部署策略的选择,但是可以通过配置来实现一些部署策略,例如: 批量部署:在为应用配置主机时,可以选择多个主机作为目标主机。 增量部署:模板部署中支持新增部署步骤,或者禁用单个或者多个部署步骤。 父主题: 应用部署

    来自:帮助中心

    查看更多 →

  • 大数据场景下使用OBS实现存算分离方案概述

    S API),实现Hadoop生态多计算引擎(Hive、Spark等)兼容对接。 方案优势 相比传统企业在本地IDC机房部署大数据业务,华为云数据存算分离方案的主要优势如表2。 表2 华为云大数据存算分离相比传统大数据方案的优势 序号 主要优势 详细描述 1 融合高效,协同分析

    来自:帮助中心

    查看更多 →

  • 安装部署

    安装部署 安装包解压 将获取到的pie-engine-studio安装包复制到 Linux 操作系统计算机的某个目录下,例如 /home/PieEngine/下,执行以下命令进入该目录: cd /home/PieEngine/ 执行如下命令进行解压 tar -zxvf 文件名.tar

    来自:帮助中心

    查看更多 →

  • 方案介绍

    方案介绍 介绍SAP应用弹性伸缩的部署方案部署方案如图1所示。 图1 部署方案 说明如下: VPC网络:为了保证网络的安全,SAP HANA系统中所有节点在一个VPC网络内,且所有 云服务器 应属于同一个AZ(Available Zone)。 公网子网区: NAT(Network

    来自:帮助中心

    查看更多 →

  • 方案介绍

    SQL Server使用日志传送来进行灾备,即可以自动将主服务器上数据库实例的事务日志发送到辅助服务器上,用于灾备的数据库实例进行还原操作。如图1所示的方案中,用户的生产数据中心部署主服务器实例,安装SQL Server数据库,作为主数据库。华为云上部署辅助服务器实例,安装SQL Server数据库,作为灾备数据库,即辅助数据库。用户的生

    来自:帮助中心

    查看更多 →

  • 方案概述

    方案概述 应用场景 某大型跨国公司数据中心部署在泰国,云上业务部署在华为云华南区,存在云上云下业务访问诉求。该场景下如果直接将泰国本地数据中心通过 虚拟专用网络 VPN连接到华南区的私有虚拟云VPC,则会出现网络不稳定的问题。 本方案采用云连接CC配合虚拟专用网络,实现跨境网络稳定连通。

    来自:帮助中心

    查看更多 →

  • 方案介绍

    本文档主要介绍同AZ内SAP HANA的部署。跨AZ和跨region的高可用及容灾部署场景可参考《SAP高可用及灾备指南》。SAP HANA的部署有两大类场景:单节点部署:通常在联机事务处理场景下,采用单节点部署(可根据需要选择无HA配置或HA配置)。SAP HANA快速接收数据并进行处理,并在很短的时间内给出处理结果,从而对用户的数据操

    来自:帮助中心

    查看更多 →

  • 方案概述

    ,选择合适的等保整改建设方案成为极大挑战。 无保障:等保咨询和测评机构繁多,服务范围和质量参差不齐,与企业难以建立互信、可靠、长期的合作关系。 通过我们的方案实现的业务效果: 本章节介绍,华为云依托自身安全能力与安全合规生态,为客户提供一站式的安全解决方案,帮助客户快速、低成本完成安全整改,轻松满足等保合规要求。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了