这篇文章主要介绍了mac下如何搭建Spark开发环境,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
一.下载scale安装包
wget https://downloads.lightbend.com/scala/2.12.2/scala-2.12.2.tgz
二.下载spark安装包
wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.1.1/spark-2.1.1-bin-hadoop2.7.tgz
三.解压缩到/usr/local,实例如下:
四.配置环境变量
五.配置spark
向spark-env.sh配置如下环境参数
export SCALA_HOME=/usr/local/scala-2.12.2
export SPARK_MASTER_IP=localhost
export SPARK_WORKER_MEMORY=4g
六.启动spark
进入到/usr/local/spark-2.1.1-bin-hadoop2.7/sbin 目录
启动脚本:start-all.sh
七.启动spark-shell
感谢你能够认真阅读完这篇文章,希望小编分享的“mac下如何搭建Spark开发环境”这篇文章对大家有帮助,同时也希望大家多多支持亿速云,关注亿速云行业资讯频道,更多相关知识等着你来学习!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。