这篇文章主要介绍了如何使用docker快速搭建Spark集群的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇如何使用docker快速搭建Spark集群文章都会有所收获,下面我们一起来看看吧。
准备工作
安装docker
(可选)下载java和spark with hadoop
spark集群
spark运行时架构图
如上图: spark集群由以下两个部分组成
集群管理器(mesos, yarn或者standalone mode)
工作节点(worker)
如何docker化(本例使用standalone模式)
1、将spark集群拆分
base(基础镜像)
master(主节点镜像)
worker(工作镜像)
2、编写base dockerfile
注: 为方便切换版本基础镜像选择的是centos, 所以要下载java和spark, 方便调试, 可以下载好安装文件后本地搭建一个静态文件服务器, 使用node.js 的可以快速搞定
命令如下
npm install http-server -g http-server -p 54321 ~/downloads
正式开始写dockerfile
from centos:7
maintainer ravenzz <raven.zhu@outlook.com>
# 安装系统工具
run yum update -y
run yum upgrade -y
run yum install -y byobu curl htop man unzip nano wget
run yum clean all
# 安装 java
env jdk_version 8u11
env jdk_build_version b12
# 如果网速快,可以直接从源站下载
#run curl -lo "http://download.oracle.com/otn-pub/java/jdk/$jdk_version-$jdk_build_version/jdk-$jdk_version-linux-x64.rpm" -h 'cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$jdk_version-linux-x64.rpm; rm -f jdk-$jdk_version-linux-x64.rpm;
run curl -lo "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$jdk_version-linux-x64.rpm; rm -f jdk-$jdk_version-linux-x64.rpm;
env java_home /usr/java/default
run yum remove curl; yum clean all
workdir spark
run \
curl -lo 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && \
tar zxf spark-2.1.0-bin-hadoop2.7.tgz
run rm -rf spark-2.1.0-bin-hadoop2.7.tgz
run mv spark-2.1.0-bin-hadoop2.7/* ./
env spark_home /spark
env path /spark/bin:$path
env path /spark/sbin:$path
3、编写master dockerfile
from ravenzz/spark-hadoop
maintainer ravenzz <raven.zhu@outlook.com>
copy master.sh /
env spark_master_port 7077
env spark_master_webui_port 8080
env spark_master_log /spark/logs
expose 8080 7077 6066
cmd ["/bin/bash","/master.sh"]
4、编写worker dockerfile
from ravenzz/spark-hadoop
maintainer ravenzz <raven.zhu@outlook.com>
copy worker.sh /
env spark_worker_webui_port 8081
env spark_worker_log /spark/logs
env spark_master "spark://spark-master:32769"
expose 8081
cmd ["/bin/bash","/worker.sh"]
5、docker-compose
version: '3'
services:
spark-master:
build:
context: ./master
dockerfile: dockerfile
ports:
- "50001:6066"
- "50002:7077" # spark_master_port
- "50003:8080" # spark_master_webui_port
expose:
- 7077
spark-worker1:
build:
context: ./worker
dockerfile: dockerfile
ports:
- "50004:8081"
links:
- spark-master
environment:
- spark_master=spark://spark-master:7077
spark-worker2:
build:
context: ./worker
dockerfile: dockerfile
ports:
- "50005:8081"
links:
- spark-master
environment:
- spark_master=spark://spark-master:7077
6、测试集群
docker-compose up
访问http://localhost:50003/ 结果如图
关于“如何使用docker快速搭建Spark集群”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“如何使用docker快速搭建Spark集群”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注亿速云行业资讯频道。
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。
原文链接:https://my.oschina.net/u/4596703/blog/4446683