入门客AI创业平台(我带你入门,你带我飞行)
博文笔记

running beyond virtual/physical memory limits问题解决

创建时间:2017-08-26 投稿人: 浏览次数:168
Container killed on request. Exit code is 143
Container exited with a non-zero exit code 143


17/08/25 20:06:31 INFO mapreduce.Job: Task Id : attempt_1503705857308_0004_m_000000_0, Status : FAILED

Container [pid=1682,containerID=container_1503705857308_0004_01_000002] is running beyond virtual memory limits. Current usage: 58.1 MB of 1 GB physical memory used; 2.5 GB of 2.1 GB virtual memory used. Killing container.


问题原因: hadoop运行时使用的虚拟内存不足, hadoop物理内存默认与主机的内存一致,hadoop虚拟内存l默认是hadoop物理内存的2.1倍。


解决问题:

修改hadoop物理内存的大小可以在mapred-site.xml设置:

<property>

    <name>mapreduce.map.memory.mb</name>

    <value>2048</value>

 </property>


  <property>

    <name>mapreduce.reduce.memory.mb</name>

    <value>2048</value>

 </property>

修改hadoop虚拟内存与hadoop物理内存的比率值可以在yarn-site.xml设置:

<property>

    <name>yarn.nodemanager.vmem-pmem-ratio</name>

    <value>3</value>

</property>


声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
  • 上一篇:没有了
  • 下一篇:没有了
未上传头像