这期内容当中小编将会给大家带来有关Rainbond怎样实现部署Spark Standalone 集群,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。
Standalone 是 Spark 自身提供的一种主从集群部署模式。本文讲述一个常规1主多从的集群部署模式,该模式下master服务依靠Rainbond平台监控保障其可用性,支持重新调度重启。 worker服务可以根据需要伸缩多个节点。
部署效果截图如下:
<center>Rainbond 部署效果图</center>
<center>Spark master UI 图</center>
开始前,你需要完成Rainbond平台的安装和搭建,参考Rainbond 安装与部署 本参考文档适合已掌握Rainbond 基础操作的同学,因此如果你还刚接触Rainbond平台,请先参考 Rainbond 快速入门指南
部署spark-master,采用Rainbond基于Docker镜像创建组件:
bde2020/spark-master:3.0.1-hadoop3.2
确认创建检测成功后选择高级设置
进行三个特殊设置。
在环境变量模块中添加环境变量
SPARK_DAEMON_JAVA_OPTS=-Dspark.deploy.recoveryMode=FILESYSTEM -Dspark.deploy.recoveryDirectory=/data
我们需要设置spark-master为“Recovery with Local File System”模式。可以在master发生重启后从持久化文件中恢复数据,保持master服务的可用性。
在存储设置中添加共享存储 /data
持久化master的数据,使其可以重启后恢复。
在端口管理中将 8080端口的对外服务打开,组件启动成功后即可访问master的UI。
在部署属性中选择组件类型为有状态单实例
部署为有状态组件后,其可以获得一个稳定的内部访问域名,供worker组件连接。有状态服务控制权可以保障master节点不会重复启动多个实例。
设置完成后选择确认创建即可启动master服务。
组件成功点击访问即可打开master UI。如上图所示,我们可以在UI中获取到master服务的访问地址是:spark://gr7b570e:7077
,注意UI上显示的地址是spark://gr7b570e-0:7077
我们需要使用的是spark://gr7b570e:7077
,复制并记录这个地址。
注意,地址实际值请查看你的UI显示,这里只是举例说明。
部署spark-worker,采用基于Docker-run命令创建组件,这种创建方式可以直接设置一些必要属性:
docker run -it -e SPARK_MASTER=spark://gr7b570e:7077 -e SPARK_WORKER_MEMORY=1g bde2020/spark-worker:3.0.1-hadoop3.2
如上创建方式指定了两个环境变量。
SPARK_MASTER 指定的是master的地址,由上一步创建的组件获取。
SPARK_WORKER_MEMORY 设置worker单个实例的内存量,这个根据每个实例分配的内存进行设置即可。比如每个实例分配1GB, 则设置SPARK_WORKER_MEMORY=1g 。如果不设置此变量,服务会自动读取操作系统的内存量。由于我们是采用的容器部署方式,读取的值会是宿主机的全部内存。将远大于worker实例实际分配的可用内存值。
同样进入高级设置,设置组件部署模式为 有状态多实例
。
确认创建组件,启动成功后即可在组件的伸缩页面中设置worker的运行实例数。
到此,我们的Spark集群已部署完成。
<b>就近数据处理原则逐步打破</b>
过去我们更偏爱于把数据处理服务(hadoop、yarn等)部署到离数据最近的地方。主要原因是hadoop计算数据的模式对IO消耗较多,如果数据与计算分类,网络IO带来的消耗将更大,对网络带宽要求较大。
但Spark机制不同,Spark计算模式是将数据尽可能缓存到内存中,也就意味着Spark消耗的资源主要是内存和CPU。然后存储数据的设备内存和CPU配属不一定充足。因此数据与计算分离将是更好的选择。
<b>数据与计算分离后的更多选择</b>
数据与计算分离是指计算服务单独部署,存储服务通过网络为计算服务提供数据。通过网络也就意味着可以有多种协议模式可选,除了传统的HDFS,目前常用的就是对象存储,比如兼容S3的各类服务,也可以是分布式文件系统,可以根据数据类型和实际需要合理选择。计算服务(spark worker) 可以根据任务的需要灵活的在分布式集群中分配计算资源。
Spark 基于 ZooKeeper可以提供master服务的主备切换。 配置方式也比较简单。
Rainbond 云原生应用管理平台,实现微服务架构不用改代码,管理 Kubernetes 不用学容器,帮企业实现应用上云,一站式将任何企业应用持续交付到 Kubernetes 集群、混合云、多云等基础设施。是 Rainstore 云原生应用商店的支撑平台。
上述就是小编为大家分享的Rainbond怎样实现部署Spark Standalone 集群了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。