小编给大家分享一下hadoop单机版安装及基本功能的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
useradd -m hadoop passwd hadoop
1.jdk 到官方下载页面http://www.oracle.com/technetwork/java/javase/downloads/index.html,下载jdk,我下载的版本为jdk-8u151-linux-x64.tar.gz。
2.hadoop安装包 到hadoop官网下载hadoop的二进制包,我使用的版本为:hadoop-2.7.5.tar.gz。
将jdk和hadoop的包上传到linux上,路径为:/home/hadoop。
以hadoop用户登录,分别解压jdk和hadoop的包。
tar -zxvf jdk-8u151-linux-x64.tar.gz tar -zxvf hadoop-2.7.5.tar.gz
重命名hadoop的目录
mv hadoop-2.7.5/ hadoop/
进入到hadoop的目录/home/hadoop/hadoop vi etc/hadoop/hadoop-env.sh
设置jdk的路径
# The java implementation to use. export JAVA_HOME=/home/hadoop/jdk1.8.0_151
mkdir input4test vi input4test/1.txt hadoop is an open-source software vi input4test/2.txt I want to learn hadoop
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount ./input4test ./output4test
cat output4test/part-r-00000
I 1 an 1 hadoop 2 is 1 learn 1 open-source 1 software 1 to 1 want 1
进入到hadoop的目录/home/hadoop/hadoop 修改配置文件etc/hadoop/core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
修改配置文件etc/hadoop/hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys $ chmod 0600 ~/.ssh/authorized_keys
hdfs格式化
bin/hdfs namenode -format
hdfs启动
sbin/start-dfs.sh
查看hdfs状态 在浏览器中输入http://IP:50070,可以查看hdfs的状态。如果50070端口没有打开,输入下面命令打开50070端口。
iptables -I INPUT -p tcp --dport 50070 -j ACCEPT
bin/hadoop dfs -ls -R /
该命令表示以递归方式查看根目录下的所有文件和文件夹。
bin/hadoop dfs -mkdir /input
该命令表示在根目录下创建input目录。
bin/hadoop hdfs -put input4test/1.txt /input/ bin/hadoop hdfs -put input4test/2.txt /input/
该命令表示将本地input4test/1.txt和2.txt文件上传到hdfs中的/input目录下。
###查看文件内容
bin/hadoop dfs -cat /input/1.txt
修改配置文件etc/hadoop/mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
修改配置文件etc/hadoop/yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.env-whitelist</name> <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> </property> </configuration>
sbin/start-yarn.sh
在浏览器中输入http://IP:8088,可以查看YARN的状态。如果8088端口没有打开,输入下面命令打开8088端口。
iptables -I INPUT -p tcp --dport 8088 -j ACCEPT
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount /input /output
本次执行的输入和输出目录,都是hdfs的目录。
bin/hadoop dfs -cat /output/part-r-00000
和之前的结果一样。
I 1 an 1 hadoop 2 is 1 learn 1 open-source 1 software 1 to 1 want 1
以上是“hadoop单机版安装及基本功能的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。