数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    spark和微服务器 更多内容
  • 设置微信通知服务器

    设置信通知 服务器 前提条件 已开通企业信公众号或个人信测试号,并已获得公众号的appid、appsecret等信息。 NetEco用户已具备“远程通知”的操作权限。 已从信公众号平台的网站(https://mp.weixin.qq.com/)上获取到有效的信证书,并导入

    来自:帮助中心

    查看更多 →

  • 企业微信App绑定华为云企业邮箱

    企业信App绑定华为云 企业邮箱 1. 绑定账号前,请确保已在邮箱个人设置-账号安全,生成客户端密码(可参考第三方客户端绑定专有密码生成)。下方以企业信App为例,提供绑定华为云企业邮箱参考。 2. 打开企业信app, 点击下方“邮件”菜单,输入邮箱地址客户端专有密码,点击添加,同意授权

    来自:帮助中心

    查看更多 →

  • Python和Spark开发平台

    PythonSpark开发平台 创建特征工程 数据采样 列筛选 数据准备 特征操作 Notebook开发 全量数据应用 发布服务 父主题: 特征工程

    来自:帮助中心

    查看更多 →

  • SparkPack 企业ERP企业微信集成指南

    SparkPack 企业ERP企业信集成指南 更新记录 应用场景介绍 集成方案设计 开发指南 实施指南

    来自:帮助中心

    查看更多 →

  • SparkPack 企业ERP泛微OA集成指南

    SparkPack 企业ERP泛OA集成指南 更新记录 概述 SparkPack(B1)EcologyOA集成 集成实施最佳实践 实施流程 更新记录 适用场景 前提条件 接口版本部署流程 SQL版本审批流部署流程

    来自:帮助中心

    查看更多 →

  • SparkPackERP和OA的接口封装到集成工作台

    SparkPackERP数据结构转换企业信数据结构执行动作 企业信数据结构转换SparkPackERP数据结构执行动作 企业信获取审批模板详情接口 企业信创建审批实例接口 企业信获取审批详情接口 父主题: 开发指南

    来自:帮助中心

    查看更多 →

  • Spark

    Spark Spark jar包冲突列表 Jar包名称 描述 处理方案 spark-core_2.1.1-*.jar Spark任务的核心jar包。 Spark可以直接使用开源同版本的Spark包运行样例代码,但是不同版本的spark-core包在使用的时候可能导致互相序列化ID不一样,因此建议使用集群自带jar包。

    来自:帮助中心

    查看更多 →

  • 应用场景分析

    应用场景分析 SparkPack ERP(SAP Business One)OA系统需要互通的场景分为以下3类: (1) 数据从ERP同步到泛OA,比如物料主数据/客户; (2) 数据从泛OA同步到ERP,比如销售订单/供应商; (3) 单据从ERP同步到泛OA进行审批

    来自:帮助中心

    查看更多 →

  • 标准单据创建审批集成方案

    具体设计图: 1.审批单据从SparkPackERP同步到企业信 2.企业信内审批后审批结果同步到SparkPackERP 业务员在SparkPackERP客户端提交待审批的单据如采购申请单 集成工作台 API每分钟执行一次,获取处于需要同步到企业信且未同步过的草稿单,同步后修改草稿单同步状态

    来自:帮助中心

    查看更多 →

  • Spark

    Spark Spark基本原理 Spark HA方案介绍 Spark与其他组件的关系 Spark开源增强特性 父主题: 组件介绍

    来自:帮助中心

    查看更多 →

  • 创建到SparkPackERP和OA集成链路

    创建到SparkPackERPOA集成链路 创建SparkPackERP连接器 创建SparkPackERP连接 创建企业信连接器 创建企业信连接 父主题: 开发指南

    来自:帮助中心

    查看更多 →

  • 创建自定义单据审批同步流

    添加执行动作,执行动作为“SparkPackERP-信数据转换”,将SparkPackERP字段格式转换成企业信数据格式(此执行动作本质是一个函数,根据配置将SparkPackERP字段格式转换成企业信数据格式) 再点击‘SparkPackERP-信数据转换’,添加配置,根

    来自:帮助中心

    查看更多 →

  • 前提条件

    com/XXXX 建立连接器连接 企业信的企业ID与审批应用凭证密钥 企业信管理员 企业ID获取文档地址:基本概念介绍 - 文档 - 企业信开发者中心 (qq.com) 审批应用凭证密钥获取文档地址:基本概念介绍 - 文档 - 企业信开发者中心 (qq.com)(每个应用

    来自:帮助中心

    查看更多 →

  • 创建采购申请审批同步流

    至企业信的字段 配置好字段后再选择该配置(DocEntry为必填字段方便后续审批回调同步结果至SparkPackERP) 添加执行动作,执行动作为‘SparkPackERP-信数据转换’(此执行动作本质是一个函数,根据配置将SparkPackERP字段格式转换成企业信数据格式)

    来自:帮助中心

    查看更多 →

  • Spark输入

    在sqlserver2014上创建一张空表“test_1”用于存储SparkSQL数据。执行以下语句: create table test_1 (id int, name text, value text); 配置“Spark输入”算子,生成三个字段A、BC: 设置了数据连接器后,单击“自动识别”,

    来自:帮助中心

    查看更多 →

  • Spark输出

    、RCPARQUET)。 说明: PARQUET格式是一种列式存储格式,PARQUET要求Loader的输出字段名SparkSQL表中的字段名保持一致。 Hive 1.2.0版本之后,Hive使用字段名称替代字段序号对ORC文件进行解析,因此,Loader的输出字段名SparkSQL表中的字段名需要保持一致。

    来自:帮助中心

    查看更多 →

  • 使用Spark

    使用Spark 运行Spark应用时修改split值报错 提交Spark任务时提示参数格式错误 磁盘容量不足导致Spark、HiveYarn服务不可用 引入jar包不正确导致Spark任务无法运行 Spark任务由于内存不够或提交作业时未添加Jar包,作业卡住 提交Spark任务

    来自:帮助中心

    查看更多 →

  • Spark Core

    Spark Core 日志聚合下,如何查看Spark已完成应用日志 Driver返回码RM WebUI上应用状态显示不一致 为什么Driver进程不能退出 网络连接超时导致FetchFailedException 当事件队列溢出时如何配置事件队列的大小 Spark应用执行过程中

    来自:帮助中心

    查看更多 →

  • DLI Spark

    DLI Spark 功能 通过DLI Spark节点执行一个预先定义的Spark作业。 DLI Spark节点的具体使用教程,请参见开发一个DLI Spark作业。 参数 用户可参考表1,表2表3配置DLI Spark节点的参数。 表1 属性参数 参数 是否必选 说明 节点名称

    来自:帮助中心

    查看更多 →

  • 配置微信渠道

    将渠道集成页面生成的网址验证码信息填入微信公众平台侧。 测试账号:进入微信公众平台的测试页面,将“网址”“验证码”填入到接口配置中。单击提交,进行Token认证。 正式公众号:选择“信公众平台 > 开发 > 基本配置”将“网址”“验证码”填入到服务器配置的“URL”“Token”中。

    来自:帮助中心

    查看更多 →

  • Spark Core

    Spark Core 日志聚合下如何查看Spark已完成应用日志 Driver返回码RM WebUI上应用状态显示不一致 为什么Driver进程不能退出 网络连接超时导致FetchFailedException 当事件队列溢出时如何配置事件队列的大小 Spark应用执行过程中,

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了