温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop 部署之环境准备(一)

发布时间:2020-07-07 21:16:35 来源:网络 阅读:563 作者:wzlinux 栏目:大数据

一、软硬件规划

ID 主机类型 主机名 IP 应用软件 操作系统 硬件配置
1 物理机 namenode01 192.168.1.200 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储
2 物理机 datanode01 192.168.1.201 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储
3 物理机 datanode02 192.168.1.202 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储
4 物理机 datanode03 192.168.1.203 jdk1.8.0_171、hadoop-2.7.3、hive-2.3.3、hbase-1.2.6、zookeeper-3.4.10、spark-2.3.1 CentOS7.4 6核CPU、8G内存、250存储

我这里规划的角色不是太好,如果是四台机器,建议大家按照我们下面的分配

  • ZooKeeper
    ZooKeeper Server:namenode01
  • HDFS
    NameNode:namenode01
    SecondaryNameNode:namenode01
    DataNode:datanode[01-03]
  • YARN
    ResourceManager:namenode01
    NodeManager:datanode[01-03]
  • HBase
    Master:namenode01
    RegionServer:datanode[01-03]
  • Hive
    HiveServer2:namenode01
    Hive Metastore Server:namenode01
  • Spark
    Master:namenode01
    Worker:datanode[01-03]

二、主机名解析

修改四台服务器的主机名。

192.168.1.200 namenode01 hbase01 spark01 hive01 cluster1
192.168.1.201 datanode01 hbase02 spark02 zk01 mysql01
192.168.1.202 datanode02 hbase03 spark03 zk02
192.168.1.203 datanode03 hbase04 spark04 zk03

Hadoop 部署之环境准备(一)

三、配置 SSH 互信

在namenode01节点上面进行操作。

ssh-keygen -t rsa
ssh-copy-id namenode01
ssh-copy-id datanode01
ssh-copy-id datanode02
ssh-copy-id datanode03

四、创建用户

创建用户(4台机器相同操作)

useradd hadoop && echo '123456' |passwd --stdin hadoop

使用命令visudo设置用户权限(4台机器相同操作),添加如下内容:

hadoop    ALL=(ALL)       ALL

五、JDK 的安装

下载JDK1.8,可以选择下载rpm包,直接安装即可使用。
https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI