要将Debian上的Hadoop与Spark集成,可以按照以下步骤进行操作:
首先,需要在Debian系统上安装Hadoop。以下是基于Hadoop 3.2.0和JDK 8的安装步骤:
wget https://download.java.net/java/GA/jdk8/9/GPL/openjdk-8u221-b11-linux-x64.tar.gz
tar xvf openjdk-8u221-b11-linux-x64.tar.gz -C /usr/lib/jvm
ln -s /usr/lib/jvm/jdk1.8.0_221 /usr/lib/jvm/jdk
echo 'export JAVA_HOME=/usr/lib/jvm/jdk' >> /etc/profile
echo 'export PATH=$JAVA_HOME/bin:$PATH' >> /etc/profile
source /etc/profile
wget http://archive.apache.org/dist/hadoop/core/hadoop-3.2.0/hadoop-3.2.0.tar.gz
tar xvf hadoop-3.2.0.tar.gz -C /opt
ln -s /opt/hadoop-3.2.0 /opt/hadoop
echo 'export HADOOP_HOME=/opt/hadoop' >> /etc/profile
echo 'export PATH=$HADOOP_HOME/bin:$PATH' >> /etc/profile
source /etc/profile
core-site.xml
, hdfs-site.xml
, mapred-site.xml
, yarn-site.xml
)以配置HDFS、YARN等。接下来,在Debian系统上安装Spark。以下是基于Spark 3.3.2的安装步骤:
wget https://archive.apache.org/dist/spark/spark-3.3.2/spark-3.3.2-bin-hadoop3.tgz
tar xvf spark-3.3.2-bin-hadoop3.tgz -C /opt
ln -s /opt/spark-3.3.2 /opt/spark
配置Spark:
复制spark-defaults.conf.template
到spark-defaults.conf
并修改配置。
复制spark-env.sh.template
到spark-env.sh
并修改配置,例如设置HADOOP_CONF_DIR
和HADOOP_HOME
。
spark-defaults.conf
以使用Hadoop YARN作为集群管理器。spark-env.sh
以包含Hadoop的配置文件路径。hive-site.xml
复制到Spark的配置目录。start-dfs.sh
start-yarn.sh
hdfs dfsadmin -report
yarn node -list
使用spark-submit
脚本提交Spark应用程序到Hadoop集群:
./bin/spark-submit \
--class <main-class> \
--master yarn \
--deploy-mode <client|cluster> \
--conf <key>=<value> \
... # other options
<application-jar> \
[application-arguments]
请注意,具体的配置步骤可能会根据实际使用的Hadoop和Spark版本有所不同。建议参考官方文档以获取详细的配置指南。