Spark任务的数量可以大于执行者核心吗?

编程入门 行业动态 更新时间:2024-10-11 21:21:01
本文介绍了Spark任务的数量可以大于执行者核心吗?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

当spark任务的数量大于执行者核心时会发生什么?Spark如何处理这种情况

What happens when number of spark tasks be greater than the executor core? How is this scenario handled by Spark

推荐答案

这与

Is this related to this question?

无论如何,您可以检查 Cloudera使用方法.在调整资源分配"部分中,将说明Spark应用程序可以通过打开动态分配属性来请求执行者.设置群集属性(例如num-executors,executor-cores,executor-memory ...)也很重要,这样火花请求才能适合您的资源管理器可用.

Anyway, you can check this Cloudera How-to. In "Tuning Resource Allocation" section, It's explained that a spark application can request executors by turning on the dynamic allocation property. It's also important to set cluster properties such as num-executors, executor-cores, executor-memory... so that spark requests fit into what your resource manager has available.

更多推荐

Spark任务的数量可以大于执行者核心吗?

本文发布于:2023-11-25 13:07:37,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1629876.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:执行者   数量   核心   Spark

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!