温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop 2.2.0 热添加新节点 (含HBASE)

发布时间:2020-07-09 16:23:35 来源:网络 阅读:348 作者:刀刀_高扬 栏目:关系型数据库

环境:

192.168.137.101 hd1

192.168.137.102 hd2

192.168.137.103 hd3

192.168.137.104 hd4


四节点hadoop和hbase



1、hd5中修改/etc/hosts

加入

192.168.137.105hd5


2、分发其到所有hd1,hd2,hd3,hd4

scp/etc/hostshd1:/etc

scp/etc/hostshd2:/etc

scp/etc/hostshd3:/etc

scp/etc/hostshd4:/etc


3、修改hd5节点的

/home/hadoop/hadoop/etc/hadoop/slaves

加添hd5作为最后一个节点


4、hd5节点删除原来的.ssh中的共钥私钥文件,重新生成

cd~/.ssh

rmid_rsa

rmid_rsa.pub

ssh-keygen-trsa


5、将原先hd1节点中的authorized_keys文件拷贝到hd5,再加入新共钥

cat~/.ssh/id_rsa.pub>>authorized_keys


6、分发改文件到其它各节点

scp~/.ssh/authorized_keyshd1:/home/hadoop/.ssh

scp~/.ssh/authorized_keyshd2:/home/hadoop/.ssh

scp~/.ssh/authorized_keyshd3:/home/hadoop/.ssh

scp~/.ssh/authorized_keyshd4:/home/hadoop/.ssh


7、前往各个节点进行第一次(不确认也可以)到hd5ssh登录(hd5本地的也做一次回环ssh登录比较好)

hd1,ssh hd5 date

hd2,ssh hd5 date

hd3,ssh hd5 date

hd4,ssh hd5 date

hd5,ssh hd5 date


8、在hd5修改hadoop的slave文件

vim /home/hadoop/hadoop/etc/hadoop/slaves

加入hd5

分发其到其它节点

scp /home/hadoop/hadoop/etc/hadoop/slaves hd1:/home/hadoop/etc/hadoop

scp /home/hadoop/hadoop/etc/hadoop/slaves hd2:/home/hadoop/etc/hadoop

scp /home/hadoop/hadoop/etc/hadoop/slaves hd3:/home/hadoop/etc/hadoop

scp /home/hadoop/hadoop/etc/hadoop/slaves hd4:/home/hadoop/etc/hadoop


9、hd5启动yarn

start-dfs.sh

yarn-daemon.shstartdatanode

(如果是虚拟机复制的产物,请删除/home/hadoop/tmp/hoem/hadoop/hdfs中的文件,当然这两个路径还是要保留的)


10、hd5启动start-balancer.sh均衡当前hdfs

Start-balancer.sh


11、如果还有hbase在上面运行则需要部署hbasehserver

修改

vim/home/hadoop/hbase/conf/regionservers

加入hd5

vim/home/hadoop/hbase/conf/hbase-site.xml

加入


hbase.zookeeper.quorum

hd1,hd2,hd3,hd4,hd5


12、复制上面两个文件到hd1,hd2,hd3,hd4

scpregionservershd1:/home/hadoop/hbase/conf

scpregionservershd2:/home/hadoop/hbase/conf

scpregionservershd3:/home/hadoop/hbase/conf

scpregionservershd4:/home/hadoop/hbase/conf

scphbase-site.xmlhd1:/home/hadoop/hbase/conf

scphbase-site.xmlhd2:/home/hadoop/hbase/conf

scphbase-site.xmlhd3:/home/hadoop/hbase/conf

scphbase-site.xmlhd4:/home/hadoop/hbase/conf


13、hd5启动hbaseregionserver

hbase-daemon.shstartregionserver


14、hd1hd5启动hbaseshell

status命令确认一下集群情况


向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI