有时会碰到HDFS访问异常,此时可以重新初始化HDFS,但尽量不要过多次数初始化,而且初始化之前最好关闭Hadoop(stop-all.sh),不然会把之前文件都删除,还会造成从节点进程失效.
1.关闭hadoop集群 ./stop-all.sh
2.hadoop初始化之前,删除文件夹 rm -rf /usr/local/src/hadoop-1.2.1/tmp
3.(可选)删除hadoop日志 rm -rf /usr/local/src/hadoop-1.2.1/logs
4.hadoop初始化 ./hadoop namenode -format
5.启动hadoop集群 ./start-all.sh
6.访问HDFS ./hadoop fs -ls /
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。