温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Windows 10 下单机 Spark 环境搭建

发布时间:2020-06-12 18:07:22 来源:网络 阅读:2085 作者:RQSLT 栏目:大数据

【目的】

  Windows 10 裸机搭建 Spark 环境,使能运行 PySpark Shell。


【原料】

  • Windows 10 x64

  • jdk-8u162-windows-x64.exe

  • python-3.6.7-amd64.exe

  • spark-2.3.2-bin-hadoop2.7.tgz

  • hadoop-2.7.7.tar.gz

  • winutils.exe


【安装 JDK】

  • 双击 jdk-8u162-windows-x64.exe 安装,后续基本上就是一路“next”。

  • 配置环境变量

# 可通过 echo %JAVA_HOME% 检验
JAVA_HOME: C:\Program Files\Java\jdk1.8.0_162
# 可通过 echo %CLASS_PATH% 检验
CLASS_PATH: C:\Program Files\Java\jdk1.8.0_162\lib
# 可通过 echo %PATH% 检验
Path: C:\Program Files\Java\jdk1.8.0_162\bin


【安装 Python3】

  • 双击 python-3.6.7-amd64.exe 安装

  • 为了便于代码补全,建议安装以下两个第三方包

# 安装ipython
pip3 install ipython -i https://pypi.doubanio.com/simple/
# 安装pyreadline
pip3 install pyreadline -i https://pypi.doubanio.com/simple/


【安装 Spark】

  • 到 http://spark.apache.org/downloads.html  下载 spark-2.3.2-bin-hadoop2.7.tgz 并解压,walker 解压到了 D:\spark 目录。

  • 到这里,pyspark 已经可以运行了,但会提示找不到 winutils.exe。

Windows 10 下单机 Spark 环境搭建

  • 配置环境变量

SPARK_HOME: D:\spark\spark-2.3.2-bin-hadoop2.7
PATH: D:\spark\spark-2.3.2-bin-hadoop2.7\bin


【安装 Hadoop】

  • 到 https://archive.apache.org/dist/hadoop/common/hadoop-2.7.7/ 下载 hadoop-2.7.7.tar.gz 并解压。如果报错“Can not create symbolic link : 客户端没有所需特权。”,以管理员身份运行解压软件后解压即可。

  • 配置环境变量

HADOOP_HOME: D:\spark\hadoop-2.7.7
PATH: D:\spark\hadoop-2.7.7\bin
  • 修改 D:\spark\hadoop-2.7.7\etc\hadoop\文件,否则可能报类似这种错误“Error: JAVA_HOME is incorrectly set. Please update F:\hadoop\conf\hadoop-env.cmd

# 因为 JAVA_HOME 环境变量有空格,所以做如下修改
set JAVA_HOME=%JAVA_HOME%
# --->>>
set JAVA_HOME=C:\PROGRA~1\Java\\jdk1.8.0_162
  • 开 cmd 输入 hadoop version,有如下输出即正常

Hadoop 2.7.7
Subversion Unknown -r c1aad84bd27cd79c3d1a7dd58202a8c3ee1ed3ac
Compiled by stevel on 2018-07-18T22:47Z
Compiled with protoc 2.5.0
From source with checksum 792e15d20b12c74bd6f19a1fb886490
This command was run using /D:/spark/hadoop-2.7.7/share/hadoop/common/hadoop-common-2.7.7.jar


【winutils.exe】

  • 到 https://github.com/steveloughran/winutils 下载对应版本的 winutils.exe,放入 D:\spark\hadoop-2.7.7\bin。


【Python 脚本测试】

  • 脚本如下(t.py)

from pyspark import SparkConf, SparkContext

conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)
print('***************************** %s' % sc.appName)
sc.stop()
  • spark-submit t.py 命令运行脚本,包含如下输出即正确。

***************************** My App


【FAQ】

  • 报错 ModuleNotFoundError: No module named 'resource'

      可能你用的 spark 版本对 Windows 10 太新了,换成 Spark 2.3.2 或以下的版本即可。


【相关阅读】

  • windows10上配置pyspark工作环境


*** walker ***

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI