云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    spark sql 例子 更多内容
  • Spark client CLI介绍

    1/install/ FusionInsight -Spark2x-3.1.1/keytab/spark2x/SparkResource/spark2x.keytab --master yarn spark-submit 用于提交Spark应用到Spark集群中运行,返回运行结果。需要指定class、master、jar包以及入参。

    来自:帮助中心

    查看更多 →

  • 使用Spark SQL作业分析OBS数据

    已创建 DLI SQL队列。创建队列详细介绍请参考创建队列。 注意:创建队列时,队列类型必须要选择为:SQL队列。 前期准备 创建DLI数据库 登录DLI管理控制台,选择“SQL编辑器”,在SQL编辑器中“执行引擎”选择“spark”,“队列”选择已创建的SQL队列。 在SQL编辑器中输

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDAF

    单击“确定”,完成创建程序包。 创建UDAF函数。 登录登录DLI管理控制台,创建SQL队列和数据库。 登录DLI管理控制台,单击“SQL编辑器”,执行引擎选择“spark”,选择已创建的SQL队列和数据库。 在SQL编辑区域输入下列命令创建UDAF函数,单击“执行”提交创建。 如果该客户

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDTF

    单击“确定”,完成创建程序包。 图11 创建程序包 创建DLI的UDTF函数。 登录DLI管理控制台,单击“SQL编辑器”,执行引擎选择“spark”,选择已创建的SQL队列和数据库。 图12 选择队列和数据库 在SQL编辑区域输入实际上传Jar包的路径创建UDTF函数,单击“执行”提交创建。 CREATE

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    bin/spark-submit --class com.huawei.bigdata.spark.examples.FemaleInfoCollection --master yarn --deploy-mode client /opt/female/SparkSqlScalaExample-1

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    put的路径。 运行Python样例程序 bin/spark-submit --master yarn --deploy-mode client /opt/female/SparkSQLPythonExample/SparkSQLPythonExample.py <inputPath>

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL的程序

    通过JDBC访问Spark SQL的程序 场景说明 Java样例代码 Scala样例代码 Python样例代码 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL的分块个数

    配置”,单击“全部配置”。在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.shuffle.partitions SparkSQL在进行shuffle操作时默认的分块数。 200 父主题: Spark SQL企业级能力增强

    来自:帮助中心

    查看更多 →

  • Spark SQL常用配置项说明

    Spark SQL常用配置项说明 本章节为您介绍DLI 批作业SQL语法的常用配置项。 表1 常用配置项 名称 默认值 描述 spark.sql.files.maxRecordsPerFile 0 要写入单个文件的最大记录数。如果该值为零或为负,则没有限制。 spark.sql.shuffle

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDF

    包。 单击“确定”,完成创建程序包。 创建UDF函数。 登录DLI管理控制台,单击“SQL编辑器”,执行引擎选择“spark”,选择已创建的SQL队列和数据库。 图11 选择队列和数据库 在SQL编辑区域输入下列命令创建UDF函数,单击“执行”提交创建。 CREATE FUNCTION

    来自:帮助中心

    查看更多 →

  • 使用MRS Spark SQL访问DWS表

    使用 MRS Spark SQL访问DWS表 华为云提供 MapReduce服务 (MRS),可在云上快速构建和运营全栈云原生大数据平台。它包含HDFS、Hive、HBase、Spark等大数据组件,专为分析海量企业数据而量身定制。 Spark提供了类似SQLSpark SQL语言,用于对结构化数据进行操作。使用Spark

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL的分块个数

    配置”,单击“全部配置”。在搜索框中输入参数名称。 表1 参数介绍 参数 描述 默认值 spark.sql.shuffle.partitions SparkSQL在进行shuffle操作时默认的分块数。 200 父主题: Spark SQL性能调优

    来自:帮助中心

    查看更多 →

  • 通过Hue执行SparkSQL

    通过Hue执行SparkSQL 操作场景 用户需要使用图形化界面在集群中执行SparkSql语句时,可以通过Hue完成任务。 配置Spark2x 使用SparkSql编辑器之前需要先修改Spark2x配置。 进入Spark2x的全部配置页面,具体操作请参考修改集群服务配置参数。

    来自:帮助中心

    查看更多 →

  • Spark SQL企业级能力增强

    Spark SQL企业级能力增强 配置矢量化读取ORC数据 配置过滤掉分区表中路径不存在的分区 配置Drop Partition命令支持批量删除 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 父主题: 使用Spark/Spark2x

    来自:帮助中心

    查看更多 →

  • SparkSQL建表参数规范

    SparkSQL建表参数规范 规则 建表必须指定primaryKey和preCombineField。 Hudi表提供了数据更新的能力和幂等写入的能力,该能力要求数据记录必须设置主键用来识别重复数据和更新操作。不指定主键会导致表丢失数据更新能力,不指定preCombineField会导致主键重复。

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    bin/spark-submit --class com.huawei.bigdata.spark.examples.FemaleInfoCollection --master yarn --deploy-mode client /opt/female/SparkSqlScalaExample-1

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    put的路径。 运行Python样例程序 bin/spark-submit --master yarn --deploy-mode client /opt/female/SparkSQLPythonExample/SparkSQLPythonExample.py <inputPath>

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    配置SparkSQL业务用户权限 操作场景 SparkSQL业务还可能需要关联使用其他组件,例如spark on HBase需要HBase权限。以下介绍SparkSQL关联HBase服务的操作。 前提条件 完成Spark客户端的安装,例如安装目录为“/opt/client”。 获

    来自:帮助中心

    查看更多 →

  • 配置Spark SQL开启Adaptive Execution特性

    200 spark.sql.adaptive.coalescePartitions.minPartitionNum 合并后的最小shuffle分区数。如果不设置,默认为Spark集群的默认并行度。只有当spark.sql.adaptive.enabled 和spark.sql.adaptive

    来自:帮助中心

    查看更多 →

  • 从零开始使用Spark SQL

    从零开始使用Spark SQL Spark提供类似SQLSpark SQL语言操作结构化数据,本章节提供从零开始使用Spark SQL,创建一个名称为src_data的表,然后在src_data表中每行写入一条数据,最后将数据存储在“mrs_20160907”集群中。再使用SQ

    来自:帮助中心

    查看更多 →

  • Spark SQL企业级能力增强

    Spark SQL企业级能力增强 配置矢量化读取ORC数据 配置过滤掉分区表中路径不存在的分区 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 配置SparkSQL的分块个数 父主题: 使用Spark2x(MRS 3.x及之后版本)

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了