入门客AI创业平台(我带你入门,你带我飞行)
博文笔记

spark报错java.lang.OutOfMemoryError: Java heap space

创建时间:2014-08-01 投稿人: 浏览次数:15476

针对spark报错:

java.lang.OutOfMemoryError: Java heap space


解决方式:

    在spark/conf/spark-env.sh中加大SPARK_WORKER_MEMORY值,如下,我加大至6GB

export SPARK_MASTER_IP=192.168.2.139
export SPARK_WORKER_CORES=4
export SPARK_WORKER_INSTANCES=2
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=6g
export MASTER=spark://${SPARK_MASTER_IP}:${SPARK_MASTER_PORT}

    在编写的scala应用程序中设置执行时内存需求量:spark.executor.memory

val conf = new SparkConf().setAppName("sinaApplication").set("spark.executor.memory","6g")

    像集群提交代码时,指定内存量:--executor-memory

../../bin/spark-submit --class "sinaApp" --master spark://192.168.2.139:7077 --executor-memory 6G target/scala-2.10/sina-project_2.10-1.0.jar

   以上方式感觉太暴力了,但是我也没找到其他方式,这样也算解决了java.lang.OutOfMemoryError: Java heap space的问题

声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。