Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
至于如何学习,当然就是看书学习了,纸质书或者电子书都可以。如果有钱,也可以选择去培训机构学习。
然后呢,学习这块切记不能闭门造车,要多交流多沟通,多上相关的社区论坛看看,多跟大神们请教请教。
还有就是要多动手,自己完完整整地做一个项目胜过看10本书。
我会陆陆续续给大家讲解这方面的知识,敬请期待!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。