温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Spark启动时的master参数以及Spark的部署方法

发布时间:2021-07-09 17:11:45 来源:亿速云 阅读:919 作者:chen 栏目:编程语言

这篇文章主要讲解了“Spark启动时的master参数以及Spark的部署方法”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Spark启动时的master参数以及Spark的部署方法”吧!

我们在初始化SparkConf时,或者提交Spark任务时,都会有master参数需要设置,如下:

 
  1.  

    conf = SparkConf().setAppName(appName).setMaster(master)      

  2.  

    sc = SparkContext(conf=conf)      

 
  1.  

    /bin/spark-submit \      

  2.  

    --cluster cluster_name \      

  3.  

    --master yarn-cluster \      

  4.  

    ...      

但是这个master到底是何含义呢?文档说是设定master url,但是啥是master url呢?说到这就必须先要了解下Spark的部署方式了。

我们要部署Spark这套计算框架,有多种方式,可以部署到一台计算机,也可以是多台(cluster)。我们要去计算数据,就必须要有计算机帮我们计算,当然计算机越多(集群规模越大),我们的计算力就越强。但有时候我们只想在本机做个试验或者小型的计算,因此直接部署在单机上也是可以的。Spark部署方式可以用如下图形展示:

Spark启动时的master参数以及Spark的部署方法

下面我们就来分别介绍下。

Local模式

Local模式就是运行在一台计算机上的模式,通常就是用于在本机上练手和测试。它可以通过以下集中方式设置master。

  • local: 所有计算都运行在一个线程当中,没有任何并行计算,通常我们在本机执行一些测试代码,或者练手,就用这种模式。

  • local[K]: 指定使用几个线程来运行计算,比如local[4]就是运行4个worker线程。通常我们的cpu有几个core,就指定几个线程,最大化利用cpu的计算能力

  • local[*]: 这种模式直接帮你按照cpu最多cores来设置线程数了。

使用示例:

 
  1.  

    /bin/spark-submit \      

  2.  

    --cluster cluster_name \      

  3.  

    --master local[*] \      

  4.  

    ...      

总而言之这几种local模式都是运行在本地的单机版模式,通常用于练手和测试,而实际的大规模计算就需要下面要介绍的cluster模式。

cluster模式

cluster模式肯定就是运行很多机器上了,但是它又分为以下三种模式,区别在于谁去管理资源调度。(说白了,就好像后勤管家,哪里需要资源,后勤管家要负责调度这些资源)

standalone模式

这种模式下,Spark会自己负责资源的管理调度。它将cluster中的机器分为master机器和worker机器,master通常就一个,可以简单的理解为那个后勤管家,worker就是负责干计算任务活的苦劳力。具体怎么配置可以参考Spark Standalone Mode

使用standalone模式示例:

 
  1.  

    /bin/spark-submit \      

  2.  

    --cluster cluster_name \      

  3.  

    --master spark://host:port \      

  4.  

    ...      

--master就是指定master那台机器的地址和端口,我想这也正是--master参数名称的由来吧。

mesos模式

这里就很好理解了,如果使用mesos来管理资源调度,自然就应该用mesos模式了,示例如下:

 
  1.  

    /bin/spark-submit \      

  2.  

    --cluster cluster_name \      

  3.  

    --master mesos://host:port \      

  4.  

    ...      

yarn模式

同样,如果采用yarn来管理资源调度,就应该用yarn模式,由于很多时候我们需要和mapreduce使用同一个集群,所以都采用Yarn来管理资源调度,这也是生产环境大多采用yarn模式的原因。yarn模式又分为yarn cluster模式和yarn client模式:

  • yarn cluster: 这个就是生产环境常用的模式,所有的资源调度和计算都在集群环境上运行。

  • yarn client: 这个是说Spark Driver和ApplicationMaster进程均在本机运行,而计算任务在cluster上。

使用示例:

 
  1.  

    /bin/spark-submit \      

  2.  

    --cluster cluster_name \      

  3.  

    --master yarn-cluster \      

  4.  

    ...      

感谢各位的阅读,以上就是“Spark启动时的master参数以及Spark的部署方法”的内容了,经过本文的学习后,相信大家对Spark启动时的master参数以及Spark的部署方法这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI