Spark glom

编程入门 行业动态 更新时间:2024-10-27 08:33:32

<a href=https://www.elefans.com/category/jswz/34/1769717.html style=Spark glom"/>

Spark glom

目录

    • Spark glom 功能
    • 案例演示

Spark glom 功能

该函数将RDD中每一个分区变成一个数组,并放置在新的RDD中,数组中元素的类型与原分区中元素类型一致

案例演示

需求:有makeRDD(List(1, 2, 3, 4), numSlices = 2),求每个分区的最大值,求出个分区的最大值以后再进行累加

0分区->1,2 ;1分区->3,4
所有分区的最大值击行求和 2 + 4 = 6

package com.xcu.bigdata.spark.core.pg02_rdd.pg022_rdd_transformimport org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}/*** @Package : com.xcu.bigdata.spark.core.pg02_rdd.pg022_rdd_transform* @Desc : glom将每一个分区变成一个数组,并放置在新的RDD中*/
object Spark04_Glom {def main(args: Array[String]): Unit = {//创建配置文件val conf: SparkConf = new SparkConf().setAppName("Spark04_Glom").setMaster("local[*]")//创建SparkContext,该对象是提交的入口val sc = new SparkContext(conf)//创建RDDval rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4), numSlices = 2)//求出每一个分区的最大值 0分区->1,2   1分区->3,4val maxRDD: RDD[Int] = rdd.glom().map(_.max)//将求出所有分区的最大值击行求和 2 + 4println(maxRDD.collect().sum)//释放资源sc.stop()}
}

更多推荐

Spark glom

本文发布于:2023-07-28 17:48:27,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1267049.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:Spark   glom

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!