Spark之报错java.lang.StackOverflowError(栈溢出) 解决方案

前面在运行Spark项目的时候,突然就报了个错:java.lang.StackOverflowError,以前也没出现过这种情况,原来是栈溢出,内存不够导致的。
在这里插入图片描述

需要在spark的配置文件中添加新的内存信息。

vi /opt/soft/spark234/conf

cp spark-defaults.conf.template  spark-defaults.conf 
vi spark-defaults.conf

//添加以下配置信息

spark.driver.extraJavaOptions="-Xss30M"

这样就不会再报栈溢出的错误了!

猜你喜欢

转载自blog.csdn.net/zp17834994071/article/details/108639908
今日推荐