本篇内容介绍了“hadoop多次格式化后导致datanode启动不了怎么办”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
hadoop namenode -format
多次格式化后,datanode启动不了
0.20.2版本解决方式:
1、查看名称节点上(即在配置文件中配置的hadoop.tmp.dir参数路径)/usr/hadoop0.20.2/hadoop-huanghz/dfs/name/current/文件夹中VERSION文件中的namespaceid;
2、在两个数据节点修改上dfs.data.dir配置的路径下current文件夹中的VERSION文件namespaceid与名称节点保持一致
2.20版本解决
/data/hadoop/dfs/name/current/VERSION
用name下面的clusterID,修改datanode的/data/hadoop/dfs/data/current/VERSION 里面的clusterID
每次格式化,name下面的VERSION的clusterID会产生一个新的ID,要去修改各个节点的VERSION的clusterID
……/dfs/data/current
storageID=DS-1959445666-10.161.138.100-50010-1386493413986 clusterID=CID-64a3a726-29e4-4d80-86a6-035ef33a225b cTime=0 storageType=DATA_NODE layoutVersion=-47
……/dfs/name/current/VERSION
#Fri Jan 03 10:37:48 CST 2014 namespaceID=1667984727 clusterID=CID-42c6d540-c3ca-44df-95e8-01a6d87effb5 cTime=0 storageType=NAME_NODE blockpoolID=BP-220196921-10.161.138.100-1388716668863 layoutVersion=-47
“hadoop多次格式化后导致datanode启动不了怎么办”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。