本篇文章为大家展示了Spark中Standalone模式下Spark应用的整个启动过程是怎样的,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
一,Standalone模式下的spark角色
大家都知道在Standalone模式下,spark一共有以下五种角色:
sparksubmit,master,Worker,Driver,Executor。具体这五种角色在我们提交应用的时候起到哪些作用呢,我们下面就来详细讲解
1,SparkSubmit
加载一个Spark应用程序的入口。这个类处理设置spark相关依赖的Classpath(足见其重要性),同时屏蔽了不同集群管理器和不同部署模式的细节,为用户提供统一接口。
2,Master
主要功能:
A),接受worker的注册并管理Worker
B),接受SparkSubmit提交的Application,并调度启动Driver(发送LaunchDriver给Worker)。
C),接受Driver端AppClient发送的RegisterApplication(appDescription,self),然后调度,发送LaunchExecutor消息给Worker。
3,Worker
A),向Master注册,并维持心跳。
B),接受Master的LaunchDriver消息,并启动Driver。
C),接受Master的LaunchExecutor消息,并启动Executor
4,Driver
A),通过AppClient向Master注册App,此时携带者CoraseGrainedExecutorBackend信息。
B),接受Executor注册,维护Executor信息。
C),划分Stage,封装task,并调度task。
5,Executor
A),向Driver注册自己并维护心跳
B),接受Driver的LaunchTask信息,并执行task。
C),将task执行结果返回给Driver。
二,Standalone提交一个应用源码过程
1,启动Driver的过程
Org.apache.spark.launcher.Main
org.apache.spark.deploy.SparkSubmit
org.apache.spark.deploy.rest.RestSubmissionClient
Org.apache.spark.deploy.rest.StandaloneRestServer
org.apache.spark.deploy.master.Master
Org.apache.spark.deploy.worker.Worker
Org.apache.spark.deploy.worker.DriverRunner
org.apache.spark.deploy.worker.DriverWrapper
用户自定义程序 ~~~
2,启动Executor的过程
org.apache.spark.SparkContext
Org.apache.spark.scheduler.cluster.SparkDeploySchedulerBackend
Org.apache.spark.deploy.client.AppClient
org.apache.spark.deploy.master.Master
Org.apache.spark.deploy.worker.Worker
Org.apache.spark.deploy.worker.ExecutorRunner
org.apache.spark.executor.CoarseGrainedExecutorBackend
org.apache.spark.executor.Executor
3,执行task的过程
org.apache.spark.scheduler.cluster.CoarseGrainedSchedulerBackend
org.apache.spark.executor.CoarseGrainedExecutorBackend
org.apache.spark.executor.Executor
org.apache.spark.executor.TaskRunner
三,结合具体流程图讲解
上述内容就是Spark中Standalone模式下Spark应用的整个启动过程是怎样的,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。