hadoop mapreduce编程 内存溢出的解决办法
在编写mapreduce程序时,经常会出现程序卡住,最后报OutOfMemoryError: Java heap space的错误。
是因为mapreduce的mapper,reducer的默认对内存大小是200m,可以通过
conf.set("mapreduce.admin.map.child.java.opts", "-Xmx512m");或者
声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
- 上一篇:没有了
- 下一篇: mysql 查看一个表占用的空间
copyright © 2008-2019 入门客AI创业平台 版权所有 备案号:湘ICP备2023012770号