入门客AI创业平台(我带你入门,你带我飞行)
博文笔记

Hadoop运行mapreduce任务过程中报错:Error: Java heap space问题解决

创建时间:2015-11-30 投稿人: 浏览次数:172

问题:Hadoop集群在运行mapreduce任务的时候报错:Error: Java heap space

问题分析:这个错误,首先一看到,便猜测是jvm的堆内存不够,于是便查询了hadoop运行mapreduce的时候jvm的默认值(我之前在搭建集群的时候是没有设置的),于是知道了在 mapred-site.xml中有一个mapred.child.java.opts的配置,用于jvm运行时heap的运行参数和垃圾回收之类的参数的配置,heap的-Xmx默认值为200m,显然这个值在很多情况下是不够的。

解决办法:在mapred-site.xml中配置-Xmx的值,配置为1024m

 	property>
                <name>mapred.child.java.opts</name>
                <value>-Xmx1024m</value>
        </property>


声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
  • 上一篇:没有了
  • 下一篇:没有了
未上传头像