读取pySpark中的文件范围

编程入门 行业动态 更新时间:2024-10-26 02:37:41
本文介绍了读取pySpark中的文件范围的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

我需要读取pySpark中的连续文件.以下对我有用.

I need to read contiguous files in pySpark. The following works for me.

from pyspark.sql import SQLContext file = "events.parquet/exportDay=2015090[1-7]" df = sqlContext.read.load(file)

我如何读取文件8-14?

How do I read files 8-14?

推荐答案

使用花括号.

file ="events.parquet/exportDay = 201509 {08,09,10,11,12,13,14}"

file = "events.parquet/exportDay=201509{08,09,10,11,12,13,14}"

这是关于堆栈溢出的类似问题: Pyspark使用正则表达式glob 选择文件子集.他们建议要么使用花括号,要么执行多次读取然后合并对象(无论是RDD还是数据帧,还是应该有某种方式).

Here's a similar question on stack overflow: Pyspark select subset of files using regex glob. They suggest either using curly braces, OR performing multiple reads and then unioning the objects (whether they are RDDs or data frames or whatever, there should be some way).

更多推荐

读取pySpark中的文件范围

本文发布于:2023-10-25 00:10:21,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1525385.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:文件   pySpark

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!