温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

hadoop中如何解决java.io.IOException: Bad connect ack with firstBad问题

发布时间:2021-12-09 09:42:48 来源:亿速云 阅读:363 作者:小新 栏目:云计算

这篇文章给大家分享的是有关hadoop中如何解决java.io.IOException: Bad connect ack with firstBad问题的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

[hadoop @master ~]$ touch bigfile.tar
[hadoop @master ~]$ cat hadoop-2.5.2.tar.gz >> bigfile.tar
[hadoop @master ~]$ touch bigfile.tarcat
[hadoop @master ~]$ 
[hadoop @master ~]$ 
[hadoop@master ~]$ cat hadoop-2.5.2.tar.gz >> bigfile.tar
[hadoop@master ~]$ hadoop fs -put bigfile.tar / 上传文件到远程目录(/)下
15/12/03 00:57:22 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
15/12/03 00:57:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Bad connect ack with firstBadLink as 192.168.209.102:50010
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1377)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1281)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:526)
15/12/03 00:57:26 INFO hdfs.DFSClient: Abandoning BP-2062059271-192.168.209.100-1448384244888:blk_1073741864_1040
15/12/03 00:57:26 INFO hdfs.DFSClient: Excluding datanode 192.168.209.102:50010
15/12/03 00:57:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Bad connect ack with firstBadLink as 192.168.209.101:50010
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1377)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1281)
        at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:526)
15/12/03 00:57:26 INFO hdfs.DFSClient: Abandoning BP-2062059271-192.168.209.100-1448384244888:blk_1073741865_1041

15/12/03 00:57:26 INFO hdfs.DFSClient: Excluding datanode 192.168.209.101:50010

原因:

1、某个节点机器突然开启防火墙,导致不能连接

2、强制kill掉某个节点(据说)

3、某个机器直接当掉,岂不是完蛋了?数据冗余容灾的设计干什么吃的?(推测)

解决方法:

root用户关闭防火墙  service iptables stop

可能是某个节点因为重启把iptables又起来了,

可以用chkconfig iptables off解决重启带来的问题,

不重启的话用service iptables stop关掉。

感谢各位的阅读!关于“hadoop中如何解决java.io.IOException: Bad connect ack with firstBad问题”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI