PyCharm搭建Spark开发环境windows下安装pyspark

编程入门 行业动态 更新时间:2024-10-25 12:21:13

PyCharm搭建Spark开发<a href=https://www.elefans.com/category/jswz/34/1771403.html style=环境windows下安装pyspark"/>

PyCharm搭建Spark开发环境windows下安装pyspark

目录

    • windows下安装pyspark
    • PyCharm搭建Spark开发环境

windows下安装pyspark

spark和hadoop版本版本之间有对应关系

  1. 安装jdk

  1. 安装hadoop
  • 下载
    hadoop-2.7.7.tar.gz

  • 配置环境变量
    不再演示

  • 下载winutils.exe

选择对应的hadoop版本下载

  • 复制winutils.exe到安装好的hadoop的bin目录下

  1. 安装spark

下载spark-2.4.6-bin-hadoop2.7.tgz

  • 配置环境变量

  1. 安装Anaconda3.7

国内下载和安装配置

  • 配置环境变量
  • 复制py4j和pyspark

将D:\spark-2.4.6-bin-hadoop2.7\python\lib下两个包(pyspark.zip,py4j.zip)解压缩后拷贝到D:\Anaconda\libsite-packages目录下,然后全部替换

  1. 测试
  • 打开cmd输入pyspark

  • 输入语句
sc.parallelize(["b", "a", "c"]).collect()

PyCharm搭建Spark开发环境

上一标题是前提

  1. 在pycharm中随便建一个python文件
  2. 配置


PYSPARK_PYTHON:python路径
SPARK_HOME:spark路径

  1. 测试程序
from pyspark import SparkConf, SparkContextconf = SparkConf().setMaster("local").setAppName("myapp")
sc = SparkContext(conf=conf)
print(sc.parallelize([1, 2, 3]).collect())

更多推荐

PyCharm搭建Spark开发环境windows下安装pyspark

本文发布于:2023-07-28 17:48:14,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1267003.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:环境   Spark   PyCharm   windows   pyspark

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!