spark报错java.lang.OutOfMemoryError: Java heap space
针对spark报错:
java.lang.OutOfMemoryError: Java heap space
解决方式:
在spark/conf/spark-env.sh中加大SPARK_WORKER_MEMORY值,如下,我加大至6GB
export SPARK_MASTER_IP=192.168.2.139 export SPARK_WORKER_CORES=4 export SPARK_WORKER_INSTANCES=2 export SPARK_MASTER_PORT=7077 export SPARK_WORKER_MEMORY=6g export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}
在编写的scala应用程序中设置执行时内存需求量:spark.executor.memory
val conf = new SparkConf().setAppName("sinaApplication").set("spark.executor.memory","6g")
像集群提交代码时,指定内存量:--executor-memory
../../bin/spark-submit --class "sinaApp" --master spark://192.168.2.139:7077 --executor-memory 6G target/scala-2.10/sina-project_2.10-1.0.jar
以上方式感觉太暴力了,但是我也没找到其他方式,这样也算解决了java.lang.OutOfMemoryError: Java heap space的问题
声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
- 上一篇:没有了
- 下一篇: python scikit-learn计算tf-idf词语权重