温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

【科普】一篇文章让你知晓Spark

发布时间:2020-06-03 07:45:42 来源:网络 阅读:489 作者:小程序员一 栏目:大数据

说起大数据的工具,最广为人知的就是Hadoop和Spark了,Hadoop在上一篇文章中已经有所介绍,这期小编就为大家介绍后起之秀Spark。

Spark是一个运算速度快如闪电的Apache项目,研发人员声称它是“一种用于数据大规模处理的快速通用引擎”,[A1]  Spark是UC BerkeleyAMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点。[A2] 

 

它提供了一个运算速度快的一般化数据处理平台,可以让你程序的内存计算速度提高到100倍,或者磁盘计算速度(Hadoop)提高10倍。去年的Daytona GraySort比赛中,Spark只用了Hadoop十分之一数量的机器就实现了其三倍多的速度,目前,Spark已经成了处理PB级别数据运算速度最快的开源工具。[A3] 

Spark核心概念是ResilientDistributed Dataset (RDD)弹性分布数据集,RDD实现了以操作本地集合的方式来操作分布式数据集的抽象实现。RDD是Spark最核心的东西,它表示已被分区,不可变的并能够被并行操作的数据集合,不同的数据集格式对应不同的RDD实现。RDD必须是可序列化的,可以cache到内存中,每次对RDD数据集的操作之后的结果,都可以存放到内存中,下一个操作可以直接从内存中输入,省去了MapReduce大量的磁盘IO操作。这对于迭代运算比较常见的机器学习算法, 交互式数据挖掘来说,效率提升比较大。[A4] 

以RDD为核心的Spark构架图如下

Spark在机器学习方面有着无与伦比的优势,特别适合需要多次迭代计算的算法。同时Spark拥有非常出色的容错和调度机制,确保系统的稳定运行[A5] ,而在易用性方面,更是大有名气,它随带易于使用的API,支持Scala(原生语言)、Java、Python和Spark SQL。SparkSQL非常类似于SQL 92,所以几乎不需要经历一番学习,马上可以上手。[A6] 

Spark帮助人们简化了处理大规模数据的步骤流程,将许多复杂的功能(比如机器学习算法和图算法)无缝地结合起来,并以其快如闪电的计算速度,正在快速地扩大着自己的影响力,我们有理由相信,凭借Spark独特的优异性能,未来Spark必将会绽放出更为璀璨的光芒。

 

 [A1]来源:别再比较HadoopSpark了,那不是设计人员的初衷

 

 [A2]来源科普SparkSpark是什么,如何使用Spark;百度百科

 [A3]来源:Apache Spark介绍及案例展示

 [A4]来源:科普SparkSpark核心是什么,如何使用Spark2http://www.aboutyun.com/thread-6850-1-1.html

 [A5]来源:跟我一起数据挖掘(22)——spark入门

 [A6]来源:别再比较HadoopSpark了,那不是设计人员的初衷

最终来源:启创方舟微信公众号

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI