今天小编给大家分享一下ubuntu怎么搭建伪分布式环境的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。
安装包链接: https://pan.baidu.com/s/1i6oNmOd 密码: i6nc
环境准备
修改hostname:
$ sudo vi /etc/hostname
修改IP 地址:
$ sudo vi /etc/network/interfaces auto eth0 iface eth0 inet static address 192.16.13.11 netmask 255.255.255.0 gateway 192.16.13.254
重启网络服务生效:
$ sudo ifdown eth0 && sudo ifup eth0
修改ip 与主机名的对应关系:
$ sudo vi /etc/hosts 192.16.13.11 why
1.1创建hadoop用户
$ sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shell$ sudo passwd hadoop #为hadoop用户设置密码,输入两次$ sudo adduser hadoop sudo #为hadoop用户增加管理员权限,方便部署$ su - hadoop #将当前用户切换到hadoop用户$ sudo apt-get update #更新hadoop用户的apt,方便后续软件安装
1.2安装SSH,并配置SSH无密码登陆
$ sudo apt-get install openssh-server #ubuntu默认安装了SSH client,此处安装SSH server$ ssh-keygen -t rsa $ sudo localhost #登陆SSH,第一次登陆输入yes$ exit #退出登录的ssh localhost$ cat ./id_rsa.pub >> ./authorized_keys #加入授权$ ssh localhost #无需密码登陆,可看到如下界面
$ sudo tar zxvf jdk-8u92-linux-x64.tar.gz -C /usr/lib #/ 解压到/usr/lib/jvm目录下
$ cd /usr/lib/jvm #进入该目录$ mv jdk1.8.0_92 java #重命名为java$ vi ~/.bashrc #给JDK配置环境变量export JAVA_HOME=/usr/lib/jvm/javaexport JRE_HOME=${JAVA_HOME}/jreexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/libexport PATH=${JAVA_HOME}/bin:$PATH$ source ~/.bashrc #使新配置的环境变量生效$ java -version #检测是否安装成功,查看java版本
$ sudo tar -zxvf hadoop-2.6.2.tar.gz -C /usr/local #解压到/usr/local目录下$ cd /usr/local$ sudo mv hadoop-2.6.2 hadoop #重命名为hadoop$ sudo chown -R hadoop ./hadoop #修改文件权限$ vi ~/.bashrcexport HADOOP_HOME=/usr/local/hadoopexport CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATHexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin $ source ~/.bashrc #使新配置的环境变量生效
Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。
首先将jdk的路径添(export JAVA_HOME=/usr/lib/jvm/java)加到hadoop-env.sh文件
接下来修改core-site.xml文件:
hadoop.tmp.dirfile:/usr/local/hadoop/tmpAbase for other temporary directories.fs.defaultFShdfs://localhost:9000
接下来修改配置文件 hdfs-site.xml
dfs.replicationdfs.namenode.name.dirfile:/usr/local/hadoop/tmp/dfs/namedfs.datanode.data.dirfile:/usr/local/hadoop/tmp/dfs/data
修改 slaves ,添加节点名 why
Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。此外,伪分布式虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行,不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。
配置完成后,执行 NameNode 的格式化
$ ./bin/hdfs namenode -format
启动namenode和datanode进程,并查看启动结果
$ ./sbin/start-dfs.sh$ jps
启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode”
$ sudo tar -zxf hbase-1.1.2-hadoop2-bin.tar.gz -C/usr/local #解压到usr/local目录下$ cd /usr/local$ mv ./hbase-1.1.2-hadoop2 ./hbase #重命名$ sudo chown -R hadoop:hadoop ./hbase #修改权限
配置命令行环境变量/etc/profile
export HBASE_HOME=/usr/local/hbaseexport PATH=$HBASE_HOME/bin:$PATH修改hbase的配置文件/conf/hbase-env.shexport JAVA_HOME=/usr/lib/jvm/javaexport HBASE_MANAGES_ZK=true
编辑.xml配置文件 conf/hbase-site.xml
hbase.rootdir hdfs://localhost:9000/hbase 数据存放的位置。 hbase.cluster.distributed hbase.zookeeper.quorum localhost dfs.replication
指定副本个数为1,因为伪分布式。
说明
hbase.rootdir配置在hdfs文件系统上hbase存储的路径 hbase.cluster.distributed配置是否是分布式的 hbase.zookeeper.quorum配置zookeeper在哪个节点上 dfs.replication配置副本个数
注意:hbase.rootdir的主机和端口号与hadoop的配置文件core-site.xml的fs.default.name的主机和端口号一致 启动hbase,在bin目录下执行命令start-hbase.sh 启动hbase之前,确保hadoop是运行正常的,并且可以写入文件*
$ sudo tar -zxf phoenix-4.7.0-HBase-1.1-bin.tar.gz -C/usr/local #解压到usr/local目录下$ cd /usr/local
把 hbase-site.xml 考到 phoenix ./bin目录下
把 phoenix-4.7.0-HBase-1.1-server.jar 包考到 hbase ./lib 下
以上就是“ubuntu怎么搭建伪分布式环境”这篇文章的所有内容,感谢各位的阅读!相信大家阅读完这篇文章都有很大的收获,小编每天都会为大家更新不同的知识,如果还想学习更多的知识,请关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。