数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    Spark之SparkSQL 更多内容
  • 创建SparkSQL角色

    操作可参考添加Spark2x的Ranger访问权限策略。 Spark2x开启或关闭Ranger鉴权后,需要重启Spark2x服务,并重新下载客户端,或刷新客户端配置文件spark/conf/spark-defaults.conf: 开启Ranger鉴权:spark.ranger.plugin

    来自:帮助中心

    查看更多 →

  • 创建SparkSQL角色

    操作可参考添加Spark2x的Ranger访问权限策略。 Spark2x开启或关闭Ranger鉴权后,需要重启Spark2x服务,并重新下载客户端,或刷新客户端配置文件spark/conf/spark-defaults.conf: 开启Ranger鉴权:spark.ranger.plugin

    来自:帮助中心

    查看更多 →

  • SparkSQL权限介绍

    操作可参考添加Spark2x的Ranger访问权限策略。 Spark2x开启或关闭Ranger鉴权后,需要重启Spark2x服务,并重新下载客户端,或刷新客户端配置文件spark/conf/spark-defaults.conf: 开启Ranger鉴权:spark.ranger.plugin

    来自:帮助中心

    查看更多 →

  • SparkSQL用户权限介绍

    操作可参考添加Spark2x的Ranger访问权限策略。 Spark2x开启或关闭Ranger鉴权后,需要重启Spark2x服务,并重新下载客户端,或刷新客户端配置文件spark/conf/spark-defaults.conf: 开启Ranger鉴权:spark.ranger.plugin

    来自:帮助中心

    查看更多 →

  • 运行SparkSql作业

    source bigdata_env cd $SPARK_HOME 进入spark-sql命令行后执行SQL语句。 ./bin/spark-sql --conf spark.yarn.principal= MRS Test --conf spark.yarn.keytab=/opt/user

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL的分块个数

    配置”,单击“全部配置”。在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.shuffle.partitions SparkSQL在进行shuffle操作时默认的分块数。 200 父主题: Spark SQL企业级能力增强

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    配置SparkSQL业务用户权限 操作场景 SparkSQL业务还可能需要关联使用其他组件,例如Spark on HBase需要HBase权限。以下介绍SparkSQL关联HBase服务的操作。 前提条件 完成Spark客户端的安装,例如安装目录为“/opt/client”。 获

    来自:帮助中心

    查看更多 →

  • SparkSQL建表参数规范

    SparkSQL建表参数规范 规则 建表必须指定primaryKey和preCombineField。 Hudi表提供了数据更新的能力和幂等写入的能力,该能力要求数据记录必须设置主键用来识别重复数据和更新操作。不指定主键会导致表丢失数据更新能力,不指定preCombineField会导致主键重复。

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    配置SparkSQL业务用户权限 操作场景 SparkSQL业务还可能需要关联使用其他组件,例如spark on HBase需要HBase权限。以下介绍SparkSQL关联HBase服务的操作。 前提条件 完成Spark客户端的安装,例如安装目录为“/opt/client”。 获

    来自:帮助中心

    查看更多 →

  • 通过Hue执行SparkSQL

    通过Hue执行SparkSQL 操作场景 用户需要使用图形化界面在集群中执行SparkSql语句时,可以通过Hue完成任务。 配置Spark2x 使用SparkSql编辑器之前需要先修改Spark2x配置。 进入Spark2x的全部配置页面,具体操作请参考修改集群服务配置参数。

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL的分块个数

    配置”,单击“全部配置”。在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.shuffle.partitions SparkSQL在进行shuffle操作时默认的分块数。 200 父主题: Spark SQL性能调优

    来自:帮助中心

    查看更多 →

  • SparkSQL读取ORC表报错

    MRS的Hive for Spark相关模块已修复该问题。 处理步骤 使用MRS集群自带的Hive for Spark包: hive-beeline-1.2.1.spark_2.2.1-mrs-x.x.x.jar hive-cli-1.2.1.spark_2.2.1-mrs-x.x

    来自:帮助中心

    查看更多 →

  • 新建MRS SparkSQL数据连接

    新建MRS SparkSQL数据连接 连接MRS SparkSQL前,需要满足以下条件: 已创建一个包含Spark组件的MRS 2.x之前版本集群,并且请确保MRS集群已关闭Kerberos认证。对于开启Kerberos认证的MRS SparkSQL数据源, DLV 暂不支持。 已获取MRS

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL支持Hudi Schema演进

    在搜索栏中搜索参数“spark.sql.extensions”,修改JD BCS erver的spark.sql.extensions参数值为:org.apache.spark.sql.hive.FISparkSessionExtension,org.apache.spark.sql.hudi.Ho

    来自:帮助中心

    查看更多 →

  • SparkSQL UDF功能的权限控制机制

    SparkSQL UDF功能的权限控制机制 问题 SparkSQL中UDF功能的权限控制机制是怎样的? 回答 目前已有的SQL语句无法满足用户场景时,用户可使用UDF功能进行自定义操作。 为确保数据安全以及UDF中的恶意代码对系统造成破坏,SparkSQL的UDF功能只允许具备a

    来自:帮助中心

    查看更多 →

  • SparkSQL UDF功能的权限控制机制

    SparkSQL UDF功能的权限控制机制 问题 SparkSQL中UDF功能的权限控制机制是怎样的? 回答 目前已有的SQL语句无法满足用户场景时,用户可使用UDF功能进行自定义操作。 为确保数据安全以及UDF中的恶意代码对系统造成破坏,SparkSQL的UDF功能只允许具备a

    来自:帮助中心

    查看更多 →

  • SparkSQL UDF功能的权限控制机制

    SparkSQL UDF功能的权限控制机制 问题 SparkSQL中UDF功能的权限控制机制是怎样的? 回答 目前已有的SQL语句无法满足用户场景时,用户可使用UDF功能进行自定义操作。 为确保数据安全以及UDF中的恶意代码对系统造成破坏,SparkSQL的UDF功能只允许具备a

    来自:帮助中心

    查看更多 →

  • SparkSQL建表时的目录权限

    SparkSQL建表时的目录权限 问题 新建的用户,使用SparkSQL建表时出现类似如下错误: 0: jdbc:hive2://192.168.169.84:22550/default> create table testACL(c string); Error: org.apache

    来自:帮助中心

    查看更多 →

  • SparkSQL建表时的目录权限

    SparkSQL建表时的目录权限 问题 新建的用户,使用SparkSQL建表时出现类似如下错误: 0: jdbc:hive2://192.168.169.84:22550/default> create table testACL(c string); Error: org.apache

    来自:帮助中心

    查看更多 →

  • 在Hue WebUI使用SparkSql编辑器

    在Hue WebUI使用SparkSql编辑器 操作场景 用户需要使用图形化界面在集群中执行SparkSql语句时,可以通过Hue完成任务。 配置Spark2x 使用SparkSql编辑器之前需要先修改Spark2x配置。 进入Spark2x的全部配置页面,具体操作请参考修改集群服务配置参数。

    来自:帮助中心

    查看更多 →

  • Spark输入

    Spark输入 概述 “Spark输入”算子,将SparkSQL表的指定列转换成同等数量的输入字段。 输入与输出 输入:SparkSQL表列 输出:字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 Spark数据库 SparkSQL的数据库名称。 String

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了