如何在pyspark中存储一组列?

编程入门 行业动态 更新时间:2024-10-14 08:25:53
本文介绍了如何在pyspark中存储一组列?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

我正在尝试在5k数据集中存储包含单词"road"的列.并创建一个新的数据框.

I am trying to bucketize columns that contain the word "road" in a 5k dataset. And create a new dataframe.

我不确定该怎么做,这是我到目前为止尝试过的:

I am not sure how to do that, here is what I have tried far :

from pyspark.ml.feature import Bucketizer spike_cols = [col for col in df.columns if "road" in col] for x in spike_cols : bucketizer = Bucketizer(splits=[-float("inf"), 10, 100, float("inf")], inputCol=x, outputCol=x + "bucket") bucketedData = bucketizer.transform(df)

推荐答案

可以在循环中修改 df :

from pyspark.ml.feature import Bucketizer for x in spike_cols : bucketizer = Bucketizer(splits=[-float("inf"), 10, 100, float("inf")], inputCol=x, outputCol=x + "bucket") df = bucketizer.transform(df)

或使用管道:

from pyspark.ml import Pipeline from pyspark.ml.feature import Bucketizer model = Pipeline(stages=[ Bucketizer( splits=[-float("inf"), 10, 100, float("inf")], inputCol=x, outputCol=x + "bucket") for x in spike_cols ]).fit(df) model.transform(df)

更多推荐

如何在pyspark中存储一组列?

本文发布于:2023-05-23 15:04:59,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1326422.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:如何在   pyspark

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!