在 AWS EMR 集群上使用 SparkLauncher 时缺少 SPARK

编程入门 行业动态 更新时间:2024-10-13 22:24:08
本文介绍了在 AWS EMR 集群上使用 SparkLauncher 时缺少 SPARK_HOME的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

我将 EMR 5.0 与 Spark 2.0.0 一起使用.我正在尝试使用 org.apache.spark.launcher.SparkLauncher

I am using EMR 5.0 with Spark 2.0.0. I am trying to run child spark application from Scala spark application using org.apache.spark.launcher.SparkLauncher

我需要使用 setSparkHome 设置 SPARK_HOME:

I need to set SPARK_HOME using setSparkHome:

var handle = new SparkLauncher() .setAppResource("s3://my-bucket/python_code.py") .setAppName("PythonAPP") .setMaster("spark://" + sparkSession.conf.get("spark.driver.host") +":"+ sparkSession.conf.get("spark.driver.port")) .setVerbose(true) .setConf(SparkLauncher.EXECUTOR_CORES, "1") .setSparkHome("/srv/spark") // not working .setDeployMode("client") .startApplication( new SparkAppHandle.Listener() { override def infoChanged(hndl: SparkAppHandle): Unit = { System.out.println(hndl.getState() + " new state !") } override def stateChanged(hndl: SparkAppHandle): Unit = { System.out.println(hndl.getState() + " new state !") } })

在哪里可以找到我的 Spark Home 的合适路径?集群由 1 个 Master、1 个 Core 和 1 个 Task 服务器构建而成.

Where can I find the appropriate path to my Spark Home ? The cluster is built from 1 Master, 1 Core and 1 Task servers.

谢谢!

推荐答案

从 emr-4.0.0 开始,EMR 上的所有应用程序都在/usr/lib 中.Spark 在/usr/lib/spark 中.

As of emr-4.0.0, all applications on EMR are in /usr/lib. Spark is in /usr/lib/spark.

更多推荐

在 AWS EMR 集群上使用 SparkLauncher 时缺少 SPARK

本文发布于:2023-11-23 16:35:56,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1622148.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:集群   EMR   AWS   SparkLauncher   SPARK

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!