小编给大家分享一下hadoop1.1.2集群安装的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
(1)执行命令hostname cloud4 修改会话中的hostname
(2)验证:执行命令hostname
(3)执行命令vi /etc/sysconfig/network 修改文件中的hostname
(4)验证:执行命令reboot -h now 重启机器
(1)执行命令vi /etc/hosts
在文本最后增加一行192.168.80.101 cloud41
(2)验证:ping cloud4
(3)在window中配置:主机名对应的ip
C:\Windows\System32\drivers\etc\hosts
新建就要配置
//(1)执行命令ssh-keygen -t rsa (然后一路Enter) 产生秘钥位于/root/.ssh/
//(2)执行命令cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys 产生授权文件
//(3)验证:ssh localhost
如果克隆的直接下一步:
判断本系统是否密码配置成功:
ssh cloud4 (ssh 主机名)
(主节点把密码传到从节点)
ssh-copy-id -i cloud41
转到从节点
ssh cloud41
(从节点把密码传到主节点)
ssh-copy-id -i cloud4
(-r递归)
scp -r /usr/local/jdk cloud41:/usr/local
scp -r /usr/local/hadoop cloud41:/usr/local
scp /etc/profile cloud41:/etc
source /etc/profile 配置文件生效
子节点可以是--------Slaves内容如下:
localhost(可要可不要,判断要不要主节点存放数据,一般dataNode放在从节点中)
cloud41,cloud42
hadoop namenode –format
start-all.sh
[root@cloud41 ~]# jps
4020 NameNode
4353 JobTracker
4466 TaskTracker
4508 Jps
4275 SecondaryNameNode
4154 DataNode
[root@cloud41 ~]# jps
3286 TaskTracker
3352 Jps
3194 DataNode
hadoop/bin
hadoop-daemon.sh start datanode
hadoop-daemon.sh start tasktracker
hadoop dfsadmin –refreshNodes
hadoop/bin
(可选)在主节点上执行负载均衡命令 start-balance.sh
hadoop fs -setrep 2 /hello
hadoop dfsadmin -safemode leave|enter|get (leave表示关闭安全模式)
以上是“hadoop1.1.2集群安装的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。