1.下载安装包
下载地址http://hadoop.apache.org/
下载hadoop-2.6.0-cdh6.12.2
2.安装tar -zxvf hadoop-2.6.0-cdh6.12.2.tar.gz
3.创建文件夹储存hadoop,给hadoop重命名
4.进入etc文件夹选择hadoop文件夹 cd hadoop
5.开始配置hadoop-env.sh 修改其中的JAVA_HOME路径
6.配置core-site.xml
fs.defaultFS默认文件系统的名称,用来确定主机、端口等对于一个文件系统.
hadoop.tmp.dir是hadoop的临时文件目录
hadoop.proxyuser.root.users 远程使用root登录的用户
hadoop.proxyuser.root.groups远程root组的用户登录
7.修改hdfs-site.xml
dfs.replication文件副本数量,副本数量默认按128M进行切分,若小于此值的话则不切分!一个文件,上传到hdfs上时指定的是几个副本就是几个。以后你修改了副本数,对已经上传了的文件也不会起作用。
8.复制mapred-site.xml.template 并修改内容
使用 Yarn 框架执行 map-reduce 处理程序
9.配置yarn-site.xml
yarn.resourcemanager.address提供客户端访问的地址。客户端通过该地址向RM提交应用程序,杀死应用程序等
yarn.nodemanager.aux-services通过该配置项,用户可以自定义一些服务,例如Map-Reduce的shuffle功能就是采用这种方式实现的,这样就可以在NodeManager上扩展自己的服务。
Shuffle把一组有一定规则的数据尽量转换成一组无规则的数据,越随机越好,从Map输出到Reduce输入的整个过程可以广义地称为Shuffle。
10修改etc/profile,添加以下内容
export HADOOP_HOME=/opt/bigdata/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
11.格式化
hdfs namenode -format
12、启动start-all.sh
关闭是stop-all.sh
13、jps查看所有进程是否开启
14、访问
http://192.168.56.110:50070
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。