入门客AI创业平台(我带你入门,你带我飞行)
博文笔记

关于hadoop配置hosts文件的问题

创建时间:2012-02-14 投稿人: 浏览次数:5401

在之前的一篇blog里,写到我的python脚本无法正常运行,后来是修改了hosts文件,今天有个同事又重新讲解了下问题,发现之前的理解有误差。
这里在介绍一下另外一种方式,就是在每台机器的hosts文件增加全部的主机名和IP地址。
对应linux系统,修改/etc/hosts文件,在全部hadoop环境下的全部机器都增加机器名和IP地址,内容如下:
10.200.187.77           master
10.200.187.78           slave1
10.200.187.79           slave2
10.200.187.80           slave3
10.200.187.54           slave4

对应window系统,修改C:WINDOWSsystem32driversetc目录下,内容同上。

不过个人还认为,如果当hadoop环境里的机器上升到上千台时,这种配置是否很繁琐。

声明:该文观点仅代表作者本人,入门客AI创业平台信息发布平台仅提供信息存储空间服务,如有疑问请联系rumenke@qq.com。
  • 上一篇:没有了
  • 下一篇:没有了
未上传头像