本篇内容介绍了“hadoop分布式文件系统怎么导入和导出数据”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
weblog_20140319.txt文件从本地文件系统复制到HDFS得一个指定文件夹下
1.在HDFS中创建一个存放目标文件的文件夹:hadoop fs -mkdir /data/weblogs. 2.将目标文件从本地系统复制到刚才新建的文件夹下:hadoop fs -copyFromLocal weblog_20140319.txt /data/weblogs 3.列出HDFS上weblog_20140319.txt文件的信息:hadoop fs -ls /data/weblogs/weblog_20140319.txt 4.将HDFS上的weblog_20140319.txt复制到本地系统的当前文件夹下:hadoop fs -copyToLocal /data/weblogs/weblog_20140319.txt ./weblog_20140319.txt
在Hadoop上处理的一些结果数据可能直接被外部系统使用,也可能需要其他系统进一步处理,或者MapReduce框架根本不符合应用场景,任何类似的情形都需要从HDFS上导出数据,下载数据最简单的方式就是Hadoop Shell.
从HDFS复制文件到本地系统时,需注意: 1.具有足够的可用空间 2.网络连接速度(HDFS中的文件大小在几个TB到几十个TB非常常见的,在1Gbit网络环境下,从HDFS中导出10TB数据到本地文件系统,最好也要消耗23个小时,当然前提还是具有足够的可用空间)
“hadoop分布式文件系统怎么导入和导出数据”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。