温馨提示×

CentOS HDFS如何安装与配置

小樊
94
2025-02-14 18:58:05
栏目: 智能运维
Centos服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

在CentOS上安装和配置Hadoop分布式文件系统(HDFS)涉及多个步骤,包括安装必要的软件、配置环境变量、设置SSH免密登录、格式化NameNode以及启动HDFS服务等。以下是详细的步骤指南:

1. 安装Java环境

首先,确保系统上安装了Java运行环境(JDK)。可以通过以下命令安装JDK 8:

yum install -y java-1.8.0-openjdk-devel

然后,配置Java环境变量:

vi /etc/profile

在文件末尾添加以下内容:

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export PATH=$JAVA_HOME/bin:$PATH

保存并退出,然后使配置生效:

source /etc/profile

验证Java安装:

java -version

2. 配置SSH免密登录

为了在集群节点之间进行无密码登录,需要配置SSH密钥对:

ssh-keygen -t rsa

将生成的公钥复制到所有集群节点:

ssh-copy-id user@node2
ssh-copy-id user@node3

验证免密登录:

ssh node2
ssh node3

3. 下载并解压Hadoop

从Apache Hadoop官网下载所需版本的Hadoop安装包,例如Hadoop 3.2.4:

wget https://downloads.apache.org/hadoop/core/hadoop-3.2.4/hadoop-3.2.4.tar.gz
tar -zxvf hadoop-3.2.4.tar.gz
mv hadoop-3.2.4 /usr/local/hadoop

4. 配置Hadoop环境变量

编辑Hadoop的环境变量文件:

vi /etc/profile

在文件末尾添加以下内容:

export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$PATH

保存并退出,然后使配置生效:

source /etc/profile

5. 配置Hadoop配置文件

core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://namenode:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>
</configuration>

hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop/hdfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop/hdfs/datanode</value>
    </property>
</configuration>

mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>resourcemanager</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

6. 格式化NameNode

在首次启动HDFS之前,需要格式化NameNode:

hdfs namenode -format

7. 启动HDFS

启动HDFS服务:

/usr/local/hadoop/sbin/start-dfs.sh

验证HDFS是否启动成功:

jps

应该能看到NameNode、DataNode等进程。

8. 访问HDFS Web UI

打开浏览器,访问NameNode的Web UI:

http://namenode:9000

9. 关闭HDFS

停止HDFS服务:

/usr/local/hadoop/sbin/stop-dfs.sh

以上步骤涵盖了在CentOS上安装和配置Hadoop HDFS的基本流程。根据具体需求,可能还需要进行更多的配置和优化。

亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

推荐阅读:CentOS HDFS与Spark如何集成

0