本篇内容介绍了“怎么在Docker中运行Jupyter/Spark/Mesos服务”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
在Docker中运行Jupyter/Spark/Mesos服务。
Spark on Docker,基于Jupyter Notebook Python, Scala, R, Spark, Mesos技术栈,提供一个远程操作的模型和任务编写Web界面,采用Python界著名的Ipython Notebook格式,非常简洁、友好。
Jupyter Notebook 4.2.x
Conda Python 3.x 和 Python 2.7.x 环境
Conda R 3.2.x 环境
Scala 2.10.x
pyspark, pandas, matplotlib, scipy, seaborn, scikit-learn 预先安装在Python环境
ggplot2, rcurl 原装在 R 环境
Spark 1.6.0,运行在local模式,或者连接到 Spark workers的集群
Mesos client 0.22 binary that can communicate with a Mesos master
非私有用户名 jovyan
(uid=1000, 可配置, 参见相应的选项) 在组 users
(gid=100) ,拥有控制权在目录 /home/jovyan
和 /opt/conda
tini 作为容器入口点, start-notebook.sh 作为启动命令
脚本 start-singleuser.sh 作为可选命令,运行Notebook server的single-user实例 , 是 JupyterHub 要求的
Options for HTTPS, password auth, and passwordless sudo
使用下面的命令启动一个容器,Web服务在端口 8888,为配置授权(仅限私网内使用,不要配置在互联网和其他公共网上)。
docker run -d -p 8888:8888 jupyter/all-spark-notebook
一般情况下,需要访问宿主机中的数据资源,使用-v host-path:docker-path方式映射。
启动后在浏览器输入: http://127.0.0.1:8888即可访问。
使用Spark在小型的本地数据环境下的配置。
运行一个容器,像上面那样。
打开一个Python 2 或 3 notebook。
创建 SparkContext在
local 模式。
例如,在notebook的第一个cell中,如下:
import pyspark sc = pyspark.SparkContext('local[*]') # do something to prove it works rdd = sc.parallelize(range(1000)) rdd.takeSample(False, 5)
运行一个容器,像上面那样。
打开一个 R notebook。
初始化 sparkR
,在local模式。
初始化 sparkRSQL
。
例如,在 R notebook的第一个cell中,如下:
library(SparkR) sc <- sparkR.init("local[*]") sqlContext <- sparkRSQL.init(sc) # do something to prove it works data(iris) df <- createDataFrame(sqlContext, iris) head(filter(df, df$Petal_Width > 0.2))
运行一个容器,像上面那样。
打开一个 Apache Toree (Scala) notebook。
使用预先配置的SparkContext,引用变量
sc
。
例如:
val rdd = sc.parallelize(0 to 999) rdd.takeSample(false, 5)
这里的配置允许你的计算集群和数据一起伸缩。
部署 Spark 到 Mesos。
配置每一个工作节点 the --no-switch_user
flag 或者创建jovyan
用户在每一个 slave节点上。
运行Docker容器,带参数 --net=host
在所有的Spark Workers都能访问的网络位置(查看 Spark networking requirement.)
注意: When using --net=host
, you must also use the flags --pid=host -e TINI_SUBREAPER=true
. See
Follow the language specific instructions below.
打开 Python 2 或 3 notebook.
创建 SparkConf
实例,指向 Mesos master node (or Zookeeper instance) 和 Spark 二进制包的位置。
创建 SparkContext
采用上面的配置变量。
示例, Python 3 notebook的第一个Cell像下面这样:
import os # make sure pyspark tells workers to use python3 not 2 if both are installed os.environ['PYSPARK_PYTHON'] = '/usr/bin/python3' import pyspark conf = pyspark.SparkConf() # point to mesos master or zookeeper entry (e.g., zk://10.10.10.10:2181/mesos) conf.setMaster("mesos://10.10.10.10:5050") # point to spark binary package in HDFS or on local filesystem on all slave # nodes (e.g., file:///opt/spark/spark-1.6.0-bin-hadoop2.6.tgz) conf.set("spark.executor.uri", "hdfs://10.10.10.10/spark/spark-1.6.0-bin-hadoop2.6.tgz") # set other options as desired conf.set("spark.executor.memory", "8g") conf.set("spark.core.connection.ack.wait.timeout", "1200") # create the context sc = pyspark.SparkContext(conf=conf) # do something to prove it works rdd = sc.parallelize(range(100000000)) rdd.sumApprox(3)
如果使用在notebook和workers中使用Python 2, 修改环境变量PYSPARK_PYTHON
指向Python 2.x 解释器二进制包的位置。如果不设置, 缺省值为 python
。
当然, 所有的可以被隐藏在 IPython kernel startup script, 但是 "explicit is better than implicit." :)
如上的方法运行一个容器实例。
打开一个 R notebook。
初始化 sparkR
,指向Mesos master node (or Zookeeper instance) , Spark 二进制包位置。
初始化 sparkRSQL
.
示例, 在 R notebook的第一个Cell:
library(SparkR) # point to mesos master or zookeeper entry (e.g., zk://10.10.10.10:2181/mesos)\ # as the first argument # point to spark binary package in HDFS or on local filesystem on all slave # nodes (e.g., file:///opt/spark/spark-1.6.0-bin-hadoop2.6.tgz) in sparkEnvir # set other options in sparkEnvir sc <- sparkR.init("mesos://10.10.10.10:5050", sparkEnvir=list( spark.executor.uri="hdfs://10.10.10.10/spark/spark-1.6.0-bin-hadoop2.6.tgz", spark.executor.memory="8g" ) ) sqlContext <- sparkRSQL.init(sc) # do something to prove it works data(iris) df <- createDataFrame(sqlContext, iris) head(filter(df, df$Petal_Width > 0.2))
打开一个终端,通过 New -> Terminal 在notebook 界面上。
添加关于集群的信息到 SPARK_OPTS
环境变量,当运行容器时.
打开一个Apache Toree (Scala) notebook。
使用预先配置的SparkContext
,在变量名 sc中。
Apache Toree 内核自动创建了SparkContext,在启动时按照命令行参数和环境变量创建
。 您可以传递关于你的 Mesos cluster的信息,当启动容器时通过 SPARK_OPTS
环境变量来实现。
例如, 传递的信息:Mesos master, Spark binary location in HDFS, and an executor options, 像下面这样启动容器:
docker run -d -p 8888:8888 -e SPARK_OPTS '--master=mesos://10.10.10.10:5050 \ --spark.executor.uri=hdfs://10.10.10.10/spark/spark-1.6.0-bin-hadoop2.6.tgz \ --spark.executor.memory=8g' jupyter/all-spark-notebook
注意,这跟上面在Python notebook的信息时一样的。 一旦内核得到集群的信息, 你可以在Apache Toree notebook测试集群,像下面这样:
// should print the value of --master in the kernel spec println(sc.master) // do something to prove it works val rdd = sc.parallelize(0 to 99999999) rdd.sum()
通过Standalone Mode连接到 Spark Cluster要求的设置如下:
确认docker image (检查 Dockerfile) 和Spark Cluster被部署、运行的是Spark的同一个版本。
Deploy Spark on Standalone Mode.
运行Docker container 带参数 --net=host
在Spark workers都能访问到的网络位置. (查看 Spark networking requirement.)
注意: 当使用 --net=host
, 必须同时使用 --pid=host -e TINI_SUBREAPER=true
. 查看详情: https://github.com/jupyter/docker-stacks/issues/64 。
特殊语言的指令与上面Mesos里提到的完全一样, 只是这里的master url 变成类似于这样: spark://10.10.10.10:7077
你可以传入 Jupyter command line options ,通过 start-notebook.sh
command,在容器启动时设置参数。例如,设置notebook server 基础URL,想下面这样:
docker run -d -p 8888:8888 jupyter/all-spark-notebook start-notebook.sh --NotebookApp.base_url=/some/path
你可以绕开 start-notebook.sh
脚本,直接在命令中指定。如果这样
, 下面提到的NB_UID
和 GRANT_SUDO
特征将不能工作。具体细节查看Docker Options一节。
你可以定制Docker容器和Notebook Server的执行,通过制定下面的参数:
-e PASSWORD="YOURPASS"
- 配置 Jupyter Notebook 要求 password,在非信任的网络上可以组合 USE_HTTPS
使用加密的连接。
-e USE_HTTPS=yes
- 配置 Jupyter Notebook接受加密连接。如果 pem
文件(包含 SSL certificate 和 key)未被提供(参见下面), 容器将创建一个self-signed certificate。
-e NB_UID=1000
- 指定jovyan
user的uid。 对于装载宿主机卷标并制定文件属有权是有用。为了该选项发挥作用, 必须运行容器时带上 --user root
. ( 脚本start-notebook.sh
将在调整user id后运行 su jovyan。
)
-e GRANT_SUDO=yes
- 给予jovyan
用户帐号无密码执行 sudo
的权限。在安装操作系统软件包是有用。为了该选项发挥作用, 运行容器时必须使用--user root
。(脚本start-notebook.sh
将在添加jovyan
到 sudoers 后运行su jovyan
。) 你应该只在信任该用户或者容器运行在隔离的宿主环境下时才打开这个sudo选项。
-v /some/host/folder/for/work:/home/jovyan/work
- 宿主机加载缺省工作目录到宿主机,从而当容器终止或重建时能够保存工作的结果在宿主机中。
-v /some/host/folder/for/server.pem:/home/jovyan/.local/share/jupyter/notebook.pem
- 加载SSL certificate plus key为 USE_HTTPS所用。
当有一个域的证书并且Notebook Server运行在下面时有用。
-p 4040:4040
- 打开端口用于Spark的运行状态监视,参见 Spark Monitoring and Instrumentation UI. 注意,每一个新的spark context创建时赋予一个增量的端口号 (ie. 4040, 4041, 4042, etc.), 并且可能需要打开多个端口。docker run -d -p 8888:8888 -p 4040:4040 -p 4041:4041 jupyter/all-spark-notebook
在这个Docker镜像中notebook server的配置需要一个 notebook.pem
文件,该文件包含base64编码的SSL key和SSL 证书。 该文件还包含其他的证书 (e.g., intermediate 和 root certificates)。
如果你的 key 和 certificate(s) 作为独立的文件, 你需要将它们合并成一个 PEM 文件。 作为可选的方式, 你可以创建自己的配置和 Docker镜像,可以使用分开的 key 和 certificate 文件。
更多的使用SSL的信息, 参见下面:
例子 docker-stacks/examples 可以得到信息,关于在公共域使用本文的技术栈时如何使用加密证书 Let's Encrypt 。
文件 jupyter_notebook_config.py 包含了本Docker镜像如何创建self-signed certificate的信息。
文档 Jupyter Notebook documentation 包含了一些最佳实践,包括如何运行一个公共 notebook server,大部分内容已经包含在了本镜像中。
缺省的Python 3.x Conda 运行环境 安装在 /opt/conda
目录下。第二个Python 2.x Conda 环境安装在 /opt/conda/envs/python2
目录下。你可以切换到 python2 环境 ,在shell里面键入命令(这是通用的conda环境切换方法,使用conda create可以创建更多的环境):
source activate python2
你可以回到缺省的环境,在shell里键入下面的命令:
source deactivate
命令 jupyter
, ipython
, python
, pip
, easy_install
, 和 conda
(以及其它) 在两个环境下都是可用的。通常,你可以安装软件到两个环境中,无论哪一个环境是激活的,像下面这样(注意:conda install使用了-n参数指定环境的名称):
# install a package into the python2 environment pip2 install some-package conda install -n python2 some-package # install a package into the default (python 3.x) environment pip3 install some-package conda install -n python3 some-package
JupyterHub 要求每一个用户有一个Jupyter Notebook server的single-user实例。为了使用 JupyterHub 和 DockerSpawner,在本技术栈中,你需要指定容器镜像名称和覆盖缺省的容器run命令,在 jupyterhub_config.py
文件中指定:
# Spawn user containers from this image c.DockerSpawner.container_image = 'jupyter/all-spark-notebook' # Have the Spawner override the Docker run command c.DockerSpawner.extra_create_kwargs.update({ 'command': '/usr/local/bin/start-singleuser.sh' })
“怎么在Docker中运行Jupyter/Spark/Mesos服务”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注亿速云网站,小编将为大家输出更多高质量的实用文章!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。