这篇“怎么用docker挂载NVIDIA显卡运行pytorch”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“怎么用docker挂载NVIDIA显卡运行pytorch”文章吧。
写在前面:
安装好centos、nvidia相关驱动及软件、docker及加速镜像。
主机运行环境
$ uname -a
linux centos 3.10.0-514.26.2.el7.x86_64 #1 smp tue jul 4 15:04:05 utc 2017 x86_64 x86_64 x86_64 gnu/linux
$ cat /usr/local/cuda/version.txt
cuda version 8.0.61
$ cat /usr/local/cuda/include/cudnn.h | grep cudnn_major -a 2
#define cudnn_major 6
#define cudnn_minor 0
#define cudnn_patchlevel 21
#define cudnn_version (cudnn_major * 1000 + cudnn_minor * 100 + cudnn_patchlevel)
#include "driver_types.h"
# nvidia 1080ti
一、关于gpu的挂载
1. 在docker运行时指定device挂载
先查看一下有哪些相关设备
$ ls -la /dev | grep nvidia
crw-rw-rw- 1 root root 195, 0 nov 15 13:41 nvidia0
crw-rw-rw- 1 root root 195, 1 nov 15 13:41 nvidia1
crw-rw-rw- 1 root root 195, 255 nov 15 13:41 nvidiactl
crw-rw-rw- 1 root root 242, 0 nov 15 13:41 nvidia-uvm
crw-rw-rw- 1 root root 242, 1 nov 15 13:41 nvidia-uvm-tools
电脑上装了两个显卡。我需要运行pytorch,dockerhub中pytorch官方镜像没有gpu支持,所以只能先pull一个anaconda镜像试试,后面可以编排成dockerfile。
$ docker run -it -d --rm --name pytorch -v /home/qiyafei/pytorch:/mnt/home --privileged=true --device /dev/nvidia-uvm:/dev/nvidia-uvm --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl okwrtdsh/anaconda3 bash
okwrtdsh的镜像似乎是针对他们实验室gpu环境的,有点过大了,不过勉强运行一下还是可以的。在容器内部还需要
安装pytorch:
$ conda install pytorch torchvision -c pytorch
这里运行torch成功,但是加载显卡失败了,可能还是因为驱动不匹配的原因吧,需要重新安装驱动,暂时不做此尝试;
二、通过nvidia-docker在docker内使用显卡
(1)安装nvidia-docker
nvidia-docker其实是docker引擎的一个应用插件,专门面向nvidia gpu,因为docker引擎是不支持nvidia驱动的,安装插件后可以在用户层上直接使用cuda。具体看上图。这个图很形象,docker引擎的运行机制也表现出来了,就是在系统内核之上通过cgroup和namespace虚拟出一个容器os的用户空间,我不清楚这是否运行在ring0上,但是cuda和应用确实可以使用了(虚拟化的问题,如果关心此类问题可以了解一些关于docker、kvm等等虚拟化的实现方式,目前是系统类比较火热的话题)
这里也可以通过添加apt或者yum sourcelist的方式进行安装,但是我没有root权限,而且update容易引起docker重启,如果不是实验室的个人环境不推荐这么做,防止破坏别人正在运行的程序(之前公司一个小伙子就是在阿里云上进行了yum update,结果导致公司部分业务停了一个上午)。
$ sudo rpm -i nvidia-docker-1.0.1-1.x86_64.rpm && rm nvidia-docker-1.0.1-1.x86_64.rpm
$ sudo systemctl start nvidia-docker
(2)容器测试
我们还需要nvidia官方提供的docker容器nvidia/cuda,里面已经编译安装了cuda和cudnn,或者直接run,缺少image的会自动pull。
$ docker pull nvidia/cuda
$ nvidia-docker run --rm nvidia/cuda nvidia-smi
在容器内测试是可以成功使用nvidia显卡的:
(3)合适的镜像或者自制dockerfile
合适的镜像:这里推荐floydhub的pytorch,注意对应的cuda和cudnn版本。
docker pull floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22
nvidia-docker run -ti -d --rm floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22 bash
自制dockerfile
首先,我们需要把要装的东西想清楚:
1. 基础镜像肯定是nvidia官方提供的啦,最省事,不用装cuda和cudnn了;
2. vim、git、lrzsz、ssh这些肯定要啦;
3. anaconda、pytorch肯定要啦;
所以需要准备好国内源source.list,否则安装速度很慢。
deb-src http://archive.ubuntu.com/ubuntu xenial main restricted #added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial main restricted multiverse universe #added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted multiverse universe #added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial universe
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates universe
deb http://mirrors.aliyun.com/ubuntu/ xenial multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse #added by software-properties
deb http://archive.canonical.com/ubuntu xenial partner
deb-src http://archive.canonical.com/ubuntu xenial partner
deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted multiverse universe #added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial-security universe
deb http://mirrors.aliyun.com/ubuntu/ xenial-security multiverse
下载anaconda的地址:https://repo.continuum.io/archive/anaconda3-5.0.1-linux-x86_64.sh,这里直接在dockerfile里下了,具体如下:
$ vim dockerfile
from nvidia/cuda
label author="qyf"
env pythonioencoding=utf-8
run mv /etc/apt/sources.list /etc/apt/sources.list.bak
add $pwd/sources.list /etc/apt/sources.list
run apt-get update --fix-missing && \
apt-get install -y vim net-tools curl wget git bzip2 ca-certificates libglib2.0-0 libxext6 libsm6 libxrender1 mercurial subversion apt-transport-https software-properties-common
run apt-get install -y openssh-server -y
run echo 'root:passwd' | chpasswd
run sed -i 's/permitrootlogin prohibit-password/permitrootlogin yes/' /etc/ssh/sshd_config
run sed -i 's/#passwordauthentication yes/passwordauthentication yes/' /etc/ssh/sshd_config
run echo 'export path=/opt/conda/bin:$path' > /etc/profile.d/conda.sh && wget --quiet https://repo.continuum.io/archive/anaconda3-5.0.1-linux-x86_64.sh -o ~/anaconda.sh && /bin/bash ~/anaconda.sh -b -p /opt/conda && rm ~/anaconda.sh
run apt-get install -y grep sed dpkg && \
tini_version=`curl https://github.com/krallin/tini/releases/latest | grep -o "/v.*\"" | sed 's:^..\(.*\).$:\1:'` && \
curl -l "https://github.com/krallin/tini/releases/download/v${tini_version}/tini_${tini_version}.deb"; > tini.deb && \
dpkg -i tini.deb && \
rm tini.deb && \
apt-get clean
env path /opt/conda/bin:$path
run conda install pytorch torchvision -c pytorch -y
entrypoint [ "/usr/bin/tini", "--" ]
cmd [ "/bin/bash" ]
通过docker build构造镜像:
docker build -t pytorch/cuda8 ./
运行成功调用cuda。
以上就是关于“怎么用docker挂载NVIDIA显卡运行pytorch”这篇文章的内容,相信大家都有了一定的了解,希望小编分享的内容对大家有帮助,若想了解更多相关的知识内容,请关注亿速云行业资讯频道。
亿速云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。
原文链接:https://my.oschina.net/u/4592993/blog/4419875