更新时间:2024-10-21 GMT+08:00
分享

Spark Java API接口介绍

由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。

Spark Core常用接口

Spark主要使用到如下这几个类:

  • JavaSparkContext:是Spark的对外接口,负责向调用该类的Java应用提供Spark的各种功能,如连接Spark集群,创建RDD,累积量和广播量等。它的作用相当于一个容器。
  • SparkConf:Spark应用配置类,如设置应用名称,执行模式,executor内存等。
  • JavaRDD:用于在java应用中定义JavaRDD的类,功能类似于scala中的RDD(Resilient Distributed Dataset)类。
  • JavaPairRDD:表示key-value形式的JavaRDD类。提供的方法有groupByKey,reduceByKey等。
  • Broadcast:广播变量类。广播变量允许保留一个只读的变量,缓存在每一台机器上,而非每个任务保存一份复制。
  • StorageLevel:数据存储级别。有内存(MEMORY_ONLY),磁盘(DISK_ONLY),内存+磁盘(MEMORY_AND_DISK)等。

JavaRDD支持两种类型的操作:Transformation和Action,这两种类型的常用方法如表1表2

表1 Transformation

方法

说明

<R> JavaRDD<R> map(Function<T,R> f)

对RDD中的每个element使用Function。

JavaRDD<T> filter(Function<T,Boolean> f)

对RDD中所有元素调用Function,返回为true的元素。

<U> JavaRDD<U> flatMap(FlatMapFunction<T,U> f)

先对RDD所有元素调用Function,然后将结果扁平化。

JavaRDD<T> sample(boolean withReplacement, double fraction, long seed)

抽样。

JavaRDD<T> distinct(int numPartitions)

去除重复元素。

JavaPairRDD<K,Iterable<V>> groupByKey(int numPartitions)

返回(K,Seq[V]),将key相同的value组成一个集合。

JavaPairRDD<K,V> reduceByKey(Function2<V,V,V> func, int numPartitions)

对key相同的value调用Function。

JavaPairRDD<K,V> sortByKey(boolean ascending, int numPartitions)

按照key来进行排序,是升序还是降序,ascending是boolean类型。

JavaPairRDD<K,scala.Tuple2<V,W>> join(JavaPairRDD<K,W> other)

当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numTasks为并发的任务数。

JavaPairRDD<K,scala.Tuple2<Iterable<V>,Iterable<W>>> cogroup(JavaPairRDD<K,W> other, int numPartitions)

当有两个KV的dataset(K,V)和(K,W),返回的是<K,scala.Tuple2<Iterable<V>,Iterable<W>>>的dataset,numTasks为并发的任务数。

JavaPairRDD<T,U> cartesian(JavaRDDLike<U,?> other)

返回该RDD与其它RDD的笛卡尔积。

表2 Action

方法

说明

T reduce(Function2<T,T,T> f)

对RDD中的元素调用Function2。

java.util.List<T> collect()

返回包含RDD中所有元素的一个数组。

long count()

返回的是dataset中的element的个数。

T first()

返回的是dataset中的第一个元素。

java.util.List<T> take(int num)

返回前n个elements。

java.util.List<T> takeSample(boolean withReplacement, int num, long seed)

对dataset随机抽样,返回由num个元素组成的数组。withReplacement表示是否使用replacement。

void saveAsTextFile(String path, Class<? extends org.apache.hadoop.io.compress.CompressionCodec> codec)

把dataset写到一个text file、hdfs、或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中。

java.util.Map<K,Object> countByKey()

对每个key出现的次数做统计。

void foreach(VoidFunction<T> f)

在数据集的每一个元素上,运行函数func。

java.util.Map<T,Long> countByValue()

对RDD中每个元素出现的次数进行统计。

表3 Spark Core新增接口

API

说明

public java.util.concurrent.atomic.AtomicBoolean isSparkContextDown()

该接口可判断sparkContext是否已完全stop,初始值为false。

若接口值为true,则代表sparkContext已完全stop。

若接口值为false,则代表sparkContext没有完成stop。

例如:用户根据 jsc.sc().isSparkContextDown().get() == true 可判断sparkContext已完全stop。

Spark Streaming常用接口

Spark Streaming中常见的类有:

  • JavaStreamingContext:是Spark Streaming功能的主入口,负责提供创建DStreams的方法,入参中需要设置批次的时间间隔。
  • JavaDStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。
  • JavaPairDStream:KV DStream的接口,提供reduceByKey和join等操作。
  • JavaReceiverInputDStream<T>:定义任何从网络接收数据的输入流。

Spark Streaming的常见方法与Spark Core类似,下表罗列了Spark Streaming特有的一些方法。

表4 Spark Streaming方法

方法

说明

JavaReceiverInputDStream<java.lang.String> socketStream(java.lang.String hostname,int port)

创建一个输入流,通过TCP socket从对应的hostname和端口接收数据。接收的字节被解析为UTF8格式。默认的存储级别为Memory+Disk。

JavaDStream<java.lang.String> textFileStream(java.lang.String directory)

入参directory为HDFS目录,该方法创建一个输入流检测可兼容Hadoop文件系统的新文件,并且读取为文本文件。

void start()

启动Spark Streaming计算。

void awaitTermination()

当前进程等待终止,如Ctrl+C等。

void stop()

终止Spark Streaming计算。

<T> JavaDStream<T> transform(java.util.List<JavaDStream<?>> dstreams,Function2<java.util.List<JavaRDD<?>>,Time,JavaRDD<T>> transformFunc)

对每个RDD进行function操作,得到一个新的DStream。这个函数中JavaRDDs的顺序和list中对应的DStreams保持一致。

<T> JavaDStream<T> union(JavaDStream<T> first,java.util.List<JavaDStream<T>> rest)

从多个具备相同类型和滑动时间的DStream中创建统一的DStream。

表5 Spark Streaming增强特性接口

方法

说明

JAVADStreamKafkaWriter.writeToKafka()

支持将DStream中的数据批量写入到Kafka。

JAVADStreamKafkaWriter.writeToKafkaBySingle()

支持将DStream中的数据逐条写入到Kafka。

Spark SQL常用接口

Spark SQL中重要的类有:

  • SQLContext:是Spark SQL功能和DataFrame的主入口。
  • DataFrame:是一个以命名列方式组织的分布式数据集
  • DataFrameReader:从外部存储系统加载DataFrame的接口。
  • DataFrameStatFunctions:实现DataFrame的统计功能。
  • UserDefinedFunction:用户自定义的函数。

常见的Actions方法有:

表6 Spark SQL方法介绍

方法

说明

Row[] collect()

返回一个数组,包含DataFrame的所有列。

long count()

返回DataFrame的行数。

DataFrame describe(java.lang.String... cols)

计算统计信息,包含计数,平均值,标准差,最小值和最大值。

Row first()

返回第一行。

Row[] head(int n)

返回前n行。

void show()

用表格形式显示DataFrame的前20行。

Row[] take(int n)

返回DataFrame中的前n行。

表7 基本的DataFrame Functions介绍

方法

说明

void explain(boolean extended)

打印出SQL语句的逻辑计划和物理计划。

void printSchema()

打印schema信息到控制台。

registerTempTable

将DataFrame注册为一张临时表,其周期和SQLContext绑定在一起。

DataFrame toDF(java.lang.String... colNames)

返回一个列重命名的DataFrame。

DataFrame sort(java.lang.String sortCol,java.lang.String... sortCols)

根据不同的列,按照升序或者降序排序。

GroupedData rollup(Column... cols)

对当前的DataFrame特定列进行多维度的回滚操作。

相关文档