RDD转换算子--单值value

Sparks算子总结:

Value类型

1)     map
  • 函数签名

def map[U: ClassTag](f: T => U): RDD[U]   //单值处理逻辑

  • 函数说明

将处理的数据逐条进行映射转换,这里的转换可以是类型的转换,也可以是值的转换。

val dataRDD: RDD[Int] = sparkContext.makeRDD(List(1,2,3,4))

val dataRDD1: RDD[Int] = dataRDD.map(

    num => {

        num * 2

    }

)

2)     mapPartitions
  • 函数签名

def mapPartitions[U: ClassTag](

    f: Iterator[T] => Iterator[U],   //迭代方式

    preservesPartitioning: Boolean = false): RDD[U]   //是否保留父分区

  • 函数说明

将待处理的数据以分区为单位发送到计算节点进行处理,这里的处理是指可以进行任意的处理,哪怕是过滤数据

val dataRDD1: RDD[Int] = dataRDD.mapPartitions(

    datas => {

        datas.filter(_==2)

}

)

map和mapPartitions的区别?

map算子每一次处理一条数据,而mapPartitions算子每一次将一个分区的数据当成一个整体进行数据处理。如果一个分区的数据没有完全处理完,那么所有的数据都不会释放,即使前面已经处理完的数据也不会释放。容易出现内存溢出,所以当内存空间足够大时,为了提高效率,推荐使用mapPartitions算子

3)     mapPartitionsWithIndex
  • 函数签名

def mapPartitionsWithIndex[U: ClassTag](

  f: (Int, Iterator[T]) => Iterator[U],   //(分区号,迭代方式)

  preservesPartitioning: Boolean = false): RDD[U]

  • 函数说明

将待处理的数据以分区为单位发送到计算节点进行处理,这里的处理是指可以进行任意的处理,哪怕是过滤数据,在处理时同时可以获取当前分区索引。

val dataRDD1 = dataRDD.mapPartitionsWithIndex(

    (index, datas) => {

         datas.map(index, _)

    }

)

4)     flatMap
  • 函数签名

def flatMap[U: ClassTag](f: T => TraversableOnce[U]): RDD[U]

  • 函数说明

将处理的数据先进行扁平化后再进行映射处理,所以算子也称之为扁平映射

val dataRDD = sparkContext.makeRDD(List(

    List(1,2),List(3,4)

),1)

val dataRDD1 = dataRDD.flatMap(

    list => list

)

5)     glom
  • 函数签名

def glom(): RDD[Array[T]]

  • 函数说明

将同一个分区的数据直接转换为相同类型的内存数组进行处理,分区不变

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4

),1)

val dataRDD1:RDD[Array[Int]] = dataRDD.glom()

6)     groupBy
  • 函数签名

def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])] 

//第一个参数为分区规则,第二个参数默认的隐式转换  

  • 函数说明

将数据根据指定的规则进行分组, 分区默认不变,但是数据会被打乱重新组合,我们将这样的操作称之为shuffle。极限情况下,数据可能被分在同一个分区中

一个组的数据在一个分区中,但是并不是说一个分区中只有一个组

val dataRDD = sparkContext.makeRDD(List(1,2,3,4),1)

val dataRDD1 = dataRDD.groupBy(

    _%2

)

7)     filter
  • 函数签名

def filter(f: T => Boolean): RDD[T]

  • 函数说明

将数据根据指定的规则进行筛选过滤,符合规则的数据保留,不符合规则的数据丢弃。

当数据进行筛选过滤后,分区不变,但是分区内的数据可能不均衡,生产环境下,可能会出现数据倾斜。

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4

),1)

val dataRDD1 = dataRDD.filter(_%2 == 0)

8)     sample
  • 函数签名

def sample(

  withReplacement: Boolean,  //是否放回

  fraction: Double,  //不放回情况为(0~1代表每个元素抽取几率)放回(每个元素期望的抽取次数)

  seed: Long = Utils.random.nextLong): RDD[T] //随机数种子,种子确定后每次抽取的元素固定

  • 函数说明

根据指定的规则从数据集中抽取数据

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4

),1)

// 抽取数据不放回(伯努利算法)

// 伯努利算法:又叫0、1分布。例如扔硬币,要么正面,要么反面。

// 具体实现:根据种子和随机算法算出一个数和第二个参数设置几率比较,小于第二个参数要,大于不要

// 第一个参数:抽取的数据是否放回,false:不放回

// 第二个参数:抽取的几率,范围在[0,1]之间,0:全不取;1:全取;

// 第三个参数:随机数种子

val dataRDD1 = dataRDD.sample(false, 0.5)

// 抽取数据放回(泊松算法)

// 第一个参数:抽取的数据是否放回,true:放回;false:不放回

// 第二个参数:重复数据的几率,范围大于等于0.表示每一个元素被期望抽取到的次数

// 第三个参数:随机数种子

val dataRDD2 = dataRDD.sample(true, 2)

9)     distinct
  • 函数签名

def distinct()(implicit ord: Ordering[T] = null): RDD[T]

def distinct(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] //去重后重新分区数

  • 函数说明

将数据集中重复的数据去重

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4,1,2

),1)

val dataRDD1 = dataRDD.distinct()

 

val dataRDD2 = dataRDD.distinct(2)

10)   coalesce
  • 函数签名

def coalesce(numPartitions: Int, shuffle: Boolean = false, 

//第一个参数为分区数,第二个参数是否进行shuffle操作  缩减分区使用默认值,扩大分区设置为true

           partitionCoalescer: Option[PartitionCoalescer] = Option.empty)

          (implicit ord: Ordering[T] = null)

  : RDD[T]

  • 函数说明

根据数据量缩减分区,用于大数据集过滤后,提高小数据集的执行效率

当spark程序中,存在过多的小任务的时候,可以通过coalesce方法,收缩合并分区,减少分区的个数,减小任务调度成本

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4,1,2

),6)

 

val dataRDD1 = dataRDD.coalesce(2)

思考一个问题:我想要扩大分区,怎么办?

Coalesce方法默认情况下无法扩大分区,因为默认不会将数据打乱重新组合。扩大分区是没有意义。如果想要扩大分区,那么必须使用shuffle,打乱数据,重新组合。

11)   repartition
  • 函数签名

def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T]

  • 函数说明

该操作内部其实执行的是coalesce操作,参数shuffle的默认值为true。无论是将分区数多的RDD转换为分区数少的RDD,还是将分区数少的RDD转换为分区数多的RDD,repartition操作都可以完成,因为无论如何都会经shuffle过程。

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4,1,2

),2)

 

val dataRDD1 = dataRDD.repartition(4)

思考一个问题:coalesce和repartition区别?

repartition方法其实就是coalesce方法,只不过肯定使用了shuffle操作。让数据更均衡一些,可以有效防止数据倾斜问题。

如果缩减分区,一般就采用coalesce, 如果扩大分区,就采用repartition

12)   sortBy
  • 函数签名

def sortBy[K](

  f: (T) => K,  //函数处理函数

  ascending: Boolean = true,   //true为默认值升序   false 降序

  numPartitions: Int = this.partitions.length)   //分区数

  (implicit ord: Ordering[K], ctag: ClassTag[K]): RDD[T]

  • 函数说明

该操作用于排序数据。在排序之前,可以将数据通过f函数进行处理,之后按照f函数处理的结果进行排序,默认为正序排列。排序后新产生的RDD的分区数与原RDD的分区数一致。

val dataRDD = sparkContext.makeRDD(List(

    1,2,3,4,1,2

),2)

 

val dataRDD1 = dataRDD.sortBy(num=>num, false, 4)

posted @ 2020-06-07 13:10  垚~垚  阅读(230)  评论(0)    收藏  举报