这篇文章主要为大家展示了“Hadoop怎么实现集群搭建”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Hadoop怎么实现集群搭建”这篇文章吧。
主要环境:
CentOS6.4
JDK 1.6
Hadoop 1.2.1
使用三台机器进行搭建。
Master(NameNode、SecondaryNameNode、JobTracker):10.0.0.13
Slave(DataNode、TaskTracker):10.0.0.15
Slave(DataNode、TaskTracker):10.0.0.16
1.三台机器都配置/etc/hosts文件
2.配置ssh免密码连接,在每台机器上均运行ssh-keygen -t rsa ,之后将每台机器生成的
id_rsa.pub合并为authorized_keys,并复制到每台机器上
3.配置hadoop目录下的conf/hadoop-env.sh 中的java环境变量
4.修改hdfs-site.xml 修改hdfs中数据块要复制多少份
5.修改mapred-site.xml 配置jobtracker
6.修改core-site.xml 指定数据目录(使用mkdir创建/usr/hadoop/tmp目录)
7.修改masters和slaves
8.使用scp命令将hadoop目录复制到各个节点
9.并在每个节点配置hadoop环境变量(编辑/etc/profile 立即生效source /etc/profile)
10.格式化
11.启动hadoop运行start-all.sh
12.最后使用jps验证是否启动相应java进程
Master:
Slave:
以上是“Hadoop怎么实现集群搭建”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。