这篇文章将为大家详细讲解有关如何实现Hadoop Hdfs配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
Hadoop Hdfs配置
环境:
Jdk1.6
Hadoop-2.20.1
Fuse-2.8.1
--------------------------------------------------------------------------------
Jdk1.6下载地址
http://cds.sun.com/is-bin/INTERSHOP.enfinity/WFS/CDS-CDS_Developer-Site/en_US/-/USD/VerifyItem-Start/jdk-6u14-linux-i586.bin?BundledLineItemUUID=.1JIBe.mR4oAAAEh2jkH4cNK&OrderID=SHBIBe.mbIYAAAEhwDkH4cNK&ProductID=4ZhIBe.o8c4AAAEhkh0zLjfT&FileName=/jdk-6u14-linux-i586.bin
hadoop-2.20.1下载地址http://www.apache.org/dyn/closer.cgi/hadoop/core/
Fuse-2.8.1下载地址http://sourceforge.net/projects/fuse/files/fuse-2.X/
NameNode192.168.1.11Centos5.3hostnamemaster-dfs
JobTracker192.168.1.11(这个也可单独配置一台)
DataNode192.168.1.12Centos5.3hostname:data-dfs
Client192.168.1.13Centos5.3hostname:client-dfs
Hadoop Hdfs配置先决条件
配置ssh自动登陆,详细见http://hadoop.apache.org/common/docs/r0.20.0/quickstart.html
安装
1、JDK安装,解压到/usr/local/jdk1.6,并配置/etc/profile环境
exportJAVA_HOME=/usr/local/jdk1.6
exportPATH=$JAVA_HOME/bin:$JAVA_HOME/jre:$PATH
exportCLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
2、下载Hadoop解压到每台服务器的/data/soft目录下,***目录都相同。
tarzxvfhadoop-2.20.1.tar.gz
配置
配置说明
Hadoop Hdfs配置过程中Hadoop的具体配置选项说明详见http://www.hadoop.org.cn/document/cn/r0.18.2/cluster_setup.html
1、修改conf/hadoop-env.sh,添加jdk支持,exportJAVA_HOME=/usr/local/jdk1.6
2、cd/data/soft/hadoop-2.20.1修改hadoop目录下的conf/core-site.xml文件,增加以下内容:
<configuration> <property> <name>fs.default.name</name> <value>hdfs://ws:54310</value>//你的namenode的配置,机器名加端口 </property> <property> <name>dfs.name.dir</name> <value>/data/hdfs/hdfs1</value>//NameNode持久存储名字空间及事务日志的本地文件系统路径。 </property> <property> <name>dfs.data.dir</name>//DataNode存放块数据的本地文件系统路径,逗号分割的列表。 <value>/data/hdfs/hdfsdata1</value> </property> <property> <name>hadoop.tmp.dir</name>>//Hadoop的默认临时路径,这个***配置,然后在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令了。 <value>/data/hdfs/hdfstmp</value> <description>Abaseforothertemporarydirectories.</description> </property> <property> <name>dfs.replication</name>//数据需要备份的数量,默认是三 <value>1</value> </property> </configuration>
3、修改conf/mapred-site.xml增加如下内容:
<property> <name>mapred.job.tracker</name>//JobTracker的主机(或者IP)和端口。 <value>ws:54311</value> </property>
4、配置/masters,修改conf//masters
master-dfs
修改hosts文件vi/etc/hosts
192.168.1.11master-dfs
192.168.1.12data-dfs
关于“如何实现Hadoop Hdfs配置”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。