关于hadoop配置hosts文件的问题
在之前的一篇blog里,写到我的python脚本无法正常运行,后来是修改了hosts文件,今天有个同事又重新讲解了下问题,发现之前的理解有误差。
这里在介绍一下另外一种方式,就是在每台机器的hosts文件增加全部的主机名和IP地址。
对应linux系统,修改/etc/hosts文件,在全部hadoop环境下的全部机器都增加机器名和IP地址,内容如下:
10.200.187.77 master
10.200.187.78 slave1
10.200.187.79 slave2
10.200.187.80 slave3
10.200.187.54 slave4
对应window系统,修改C:WINDOWSsystem32driversetc目录下,内容同上。
不过个人还认为,如果当hadoop环境里的机器上升到上千台时,这种配置是否很繁琐。
声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
- 上一篇:没有了
- 下一篇:没有了