使用窗口函数计算 PySpark 中的累积总和

编程入门 行业动态 更新时间:2024-10-10 07:21:14
本文介绍了使用窗口函数计算 PySpark 中的累积总和的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

我有以下示例数据帧:

rdd = sc.parallelize([(1,20), (2,30), (3,30)]) df2 = spark.createDataFrame(rdd, ["id", "duration"]) df2.show() +---+--------+ | id|duration| +---+--------+ | 1| 20| | 2| 30| | 3| 30| +---+--------+

我想按持续时间的降序对此 DataFrame 进行排序,并添加一个具有持续时间累积总和的新列.所以我做了以下事情:

I want to sort this DataFrame in desc order of duration and add a new column which has the cumulative sum of the duration. So I did the following:

windowSpec = Window.orderBy(df2['duration'].desc()) df_cum_sum = df2.withColumn("duration_cum_sum", sum('duration').over(windowSpec)) df_cum_sum.show() +---+--------+----------------+ | id|duration|duration_cum_sum| +---+--------+----------------+ | 2| 30| 60| | 3| 30| 60| | 1| 20| 80| +---+--------+----------------+

我想要的输出是:

+---+--------+----------------+ | id|duration|duration_cum_sum| +---+--------+----------------+ | 2| 30| 30| | 3| 30| 60| | 1| 20| 80| +---+--------+----------------+

我怎么得到这个?

这里是细分:

+--------+----------------+ |duration|duration_cum_sum| +--------+----------------+ | 30| 30| #First value | 30| 60| #Current duration + previous cum sum value | 20| 80| #Current duration + previous cum sum value +--------+----------------+

推荐答案

你可以引入 row_number 来打破僵局;如果写成sql:

You can introduce the row_number to break the ties; If written in sql:

df2.selectExpr( "id", "duration", "sum(duration) over (order by row_number() over (order by duration desc)) as duration_cum_sum" ).show() +---+--------+----------------+ | id|duration|duration_cum_sum| +---+--------+----------------+ | 2| 30| 30| | 3| 30| 60| | 1| 20| 80| +---+--------+----------------+

更多推荐

使用窗口函数计算 PySpark 中的累积总和

本文发布于:2023-10-26 06:57:06,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1529406.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:总和   函数   窗口   PySpark

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!