温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

windows下跑spark程序的注意点有哪些

发布时间:2021-12-16 11:19:36 来源:亿速云 阅读:172 作者:小新 栏目:大数据

小编给大家分享一下windows下跑spark程序的注意点有哪些,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

windows下也可以跑spark程序,如果没有集群则用本地模式[local],然后用跑jar包的方式就可以了。

大致步骤如下:

(1)创建maven工程,支持scala,可以用scala写spark程序,注意spark.setMaster("local")这样。

(2)生成jar包。用mvn clean scala:compile package命令。

(3)将hadoop.dll(从网上搜索)放到c:\windows\system32\目录下,不然windows下创建文件会报错。

(4)执行java -classpath  yourSparkApp.jar yourMainClass

注意,如果没有spark环境,则maven里不要添加<scope>provided</scope>之类的字样,这样jar包同目录下会生成lib目录,里面是spark需要的所有的jar包。

执行jar包的时候默认会找到.jar文件下的lib目录里的jar包作为依赖的。

这样,一个完整的windows下开发并且调试spark程序的过程就完成了!

以上是“windows下跑spark程序的注意点有哪些”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI