温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop怎么设置HDFS的块大小

发布时间:2021-12-09 11:38:39 来源:亿速云 阅读:536 作者:小新 栏目:大数据

这篇文章主要介绍Hadoop怎么设置HDFS的块大小,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

  HDFS是设计来存储和管理大数据的,因此典型的HDFS块大小明显比平时我们看到的传统文件系统块大得多,块大小的设置用来将大文件切割成一个数据块,再将这些数据块分发到集群上,例如集群的块大小设置为64MB,一个128MB的文件上传到HDFS上,HDFS会将这个文件切分成2(128/64)个数据块,再将这两块数据分发到集群的数据节点上。
设置块大小:
打开hdfs-site.xml,(在hadoop安装目录下的conf文件夹里)
操作步骤:
设置hdfs-site.xml下面的属性值:
<property>
<name>dfs.block.size</name>
<value>134217728</value>    --修改为128M
<description>Block size</description>
</property>


修改说明:
hdfs-site.xml是HDFS的配置文件,修改hdfs-site.xml配置文件的dfs.block.size属性值就会改变上传到HDFS所有文件的默认块大小。修改这个值并不会对HDFS上现存的任何文件的块大小产生影响,只会改变新上传文件的块大小。

以上是“Hadoop怎么设置HDFS的块大小”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI