Spark SQL作业的Spark修复任务编号

编程入门 行业动态 更新时间:2024-10-26 08:28:34
本文介绍了Spark SQL作业的Spark修复任务编号的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧! 问题描述

我一直看到Apache Spark安排了一系列阶段,固定涉及200个任务.由于这一直发生在许多不同的工作上,所以我猜测这与Spark配置之一有关.有什么建议可能是什么配置吗?

I keep seeing that Apache Spark schedules series of stages with a fixed 200 tasks involved. Since this keeps happening to a number of different jobs I am guessing this is somehow related to one of Spark configurations. Any suggestion what that configuration might be?

推荐答案

200是在改组期间使用的默认分区数,它由spark.sql.shuffle.partitions控制.可以在运行时使用SQLContext.setConf设置其值:

200 is a default number of partitions used during shuffles and it is controlled by spark.sql.shuffle.partitions. Its value can set on runtime using SQLContext.setConf:

sqlContext.setConf("spark.sql.shuffle.partitions", "42")

或RuntimeConfig.set

spark.conf.set("spark.sql.shuffle.partitions", 42)

更多推荐

Spark SQL作业的Spark修复任务编号

本文发布于:2023-11-24 03:17:53,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1623777.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:作业   编号   Spark   SQL

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!