数据湖探索 DLI

数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark和Apache Flink生态, 实现批流一体的Serverless大数据计算分析服务。DLI支持多模引擎,企业仅需使用SQL或程序就可轻松完成异构数据源的批处理、流处理、内存计算、机器学习等,挖掘和探索数据价值

 
进入控制台立即购买帮助文档DLI开发者社区1对1咨询                
               

           

    企业级spark云主机配置多少钱 更多内容
  • 配置Hive表分区动态覆盖

    致。 配置参数 登录 FusionInsight Manager系统,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索以下参数。 参数 说明 默认值 取值范围 spark.sql.sources.partitionOverwriteMode 当前执行insert

    来自:帮助中心

    查看更多 →

  • 配置具备表select权限的用户可查看表结构

    重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强

    来自:帮助中心

    查看更多 →

  • 配置Spark作业失败时清理残留文件

    在Spark客户端的“{客户端安装目录}/Spark/spark/conf/spark-defaults.conf”配置文件中进行设置,修改如下参数: 参数 说明 默认值 spark.yarn.session.to.application.clean.enabled 设置为true,Spark将开启定期残余文件清理特性

    来自:帮助中心

    查看更多 →

  • 配置Hive表分区动态覆盖

    致。 配置参数 登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索以下参数。 参数 说明 默认值 取值范围 spark.sql.sources.partitionOverwriteMode

    来自:帮助中心

    查看更多 →

  • Spark Distinct聚合优化

    nct聚合函数。 使用约束 作业已配置足够的内存。 配置参数 在Spark客户端的“{客户端安装目录}/Spark/spark/conf/spark-defaults.conf”配置文件中进行设置,修改如下参数: 参数 说明 默认值 spark.sql.keep.distinct

    来自:帮助中心

    查看更多 →

  • 配置Spark读取HBase表数据

    如果需要在Spark2x客户端用Spark on HBase功能,需要重新下载并安装Spark2x客户端。 在Spark2x客户端使用spark-sql或者spark-beeline连接,可以查询由Hive on HBase所创建的表,支持通过SQL命令创建HBase表或创建外表关联HBa

    来自:帮助中心

    查看更多 →

  • 配置parquet表的压缩格式

    codec”配置项只适用于设置非分区表的parquet压缩格式。 配置参数 参数入口: 在Manager系统中,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”,单击“全部配置”,在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.parquet.compression

    来自:帮助中心

    查看更多 →

  • 配置Spark SQL语法支持关联子查询不带聚合函数

    a”的关联子查询SQL语法。 配置参数 spark-sql 场景:在Spark客户端的“{客户端安装目录}/Spark/spark/conf/spark-defaults.conf”配置文件中进行设置,修改如下参数: 参数 说明 默认值 spark.sql.legacy.correlated

    来自:帮助中心

    查看更多 →

  • HBase企业级能力增强

    HBase企业级能力增强 配置HBase本地二级索引提升查询效率 增强HBase BulkLoad工具数据迁移能力 配置RSGroup管理RegionServer资源 父主题: 使用HBase

    来自:帮助中心

    查看更多 →

  • Kafka企业级能力增强

    Kafka企业级能力增强 配置Kafka高可用和高可靠 配置Kafka数据安全传输协议 配置Kafka数据均衡工具 父主题: 使用Kafka

    来自:帮助中心

    查看更多 →

  • Yarn企业级能力增强

    Yarn企业级能力增强 配置Yarn权限控制开关 手动指定运行Yarn任务的用户 配置AM失败重试次数 配置AM自动调整分配内存 配置AM作业自动保留 配置Yarn数据访问通道协议 配置自定义调度器的WebUI 配置NodeManager角色实例使用的资源 配置ResourceM

    来自:帮助中心

    查看更多 →

  • Oozie企业级能力增强

    Oozie企业级能力增强 开启Oozie HA机制 使用Share Lib工具检查Oozie依赖Jar包正确性 父主题: 使用Oozie

    来自:帮助中心

    查看更多 →

  • 管理企业级QoS功能

    则将停用。 开启企业级QoS功能 申请共享带宽时开启,请参考申请共享带宽申请共享带宽,勾选“企业级QoS功能”。 图1 开启企业级QoS功能 已存在的共享带宽,可在共享带宽列表操作列单击“更多 > 开启企业级QoS功能”。 图2 开启企业级QoS功能 关闭企业级QoS功能 在共享带宽列表操作列单击“更多

    来自:帮助中心

    查看更多 →

  • 配置Spark通过Guardian访问OBS

    下载客户端”,重新下载并安装Spark客户端,详细操作请参考安装客户端章节,并执行7。 如果不重新下载并安装客户端,则直接执行以下步骤更新Spark客户端配置文件(例如:客户端目录为“/opt/client”,具体以实际为准): 以root用户登录Spark客户端所在的节点,切换到客户端安装目录。

    来自:帮助中心

    查看更多 →

  • 配置Spark读取HBase表数据

    如果需要在Spark2x客户端用Spark on HBase功能,需要重新下载并安装Spark2x客户端。 在Spark2x客户端使用spark-sql或者spark-beeline连接,可以查询由Hive on HBase所创建的表,支持通过SQL命令创建HBase表或创建外表关联HBa

    来自:帮助中心

    查看更多 →

  • 配置parquet表的压缩格式

    codec”配置项只适用于设置非分区表的parquet压缩格式。 配置参数 参数入口: 在Manager系统中,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.parquet.compression

    来自:帮助中心

    查看更多 →

  • 配置具备表select权限的用户可查看表结构

    nogrant”,“值”为“true ”,修改后重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强

    来自:帮助中心

    查看更多 →

  • 配置创建Hive内部表时不能指定Location

    重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强

    来自:帮助中心

    查看更多 →

  • 配置仅Hive管理员用户能创建库和在default库建表

    create”,“值”为“true”。 单击“保存”保存配置。单击“实例”,勾选所有Spark2x实例,选择“更多 > 重启实例”,输入当前用户密码,单击“确定”重启所有实例。 重新下载并安装Spark/Spark2x客户端。 父主题: Hive企业级能力增强

    来自:帮助中心

    查看更多 →

  • 配置Spark事件队列大小

    使用,在这边添加一个配置项,用户可以根据Driver的内存大小设置合适的值。 配置描述 参数入口: 在执行应用之前,在Spark服务配置中修改。在Manager系统中,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”,单击“全部配置”。在搜索框中输入参数名称。

    来自:帮助中心

    查看更多 →

  • 配置Spark事件队列大小

    为了更灵活的使用,在这边添加一个配置项,用户可以根据Driver的内存大小设置合适的值。 配置描述 参数入口: 在执行应用之前,在Spark服务配置中修改。在Manager系统中,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”。在搜索框中输入参数名称。 表1

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了