这篇文章主要为大家展示了“如何从Docker映像安装适用于Linux*的OpenVINO™工具套件”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何从Docker映像安装适用于Linux*的OpenVINO™工具套件”这篇文章吧。
英特尔® Distribution of OpenVINO™ 工具套件可以快速部署可媲美人类视觉的应用程序和解决方案。该工具套件基于复杂神经网络(CNN),通过英特尔® 硬件扩展了计算机视觉 (CV) 工作负载,从而最大化性能。英特尔® Distribution of OpenVINO™ 工具套件中包含了英特尔® Deep Learning Deployment Toolkit。
本指南提供了通过适用于 Linux* 的英特尔® Distribution of OpenVINO™ 工具套件创建 Docker* 映像,以及进一步进行安装的步骤。
目标操作系统
Ubuntu* 18.04 长期支持 (LTS),64 位
主机操作系统
已安装 GPU 驱动程序和受 GPU 驱动程序支持的 Linux 内核的 Linux
内核向所有容器报告与本地应用程序一样的信息,如 CPU 和内存信息。
所有主机进程可用的指令对于容器中的进程均可用,包括 AVX2、AVX512 等。不存在限制。
Docker* 不使用虚拟化或仿真。Docker* 中的进程只是一种常规 Linux 进程,但它在内核水平上与其外部世界隔离。性能损失很小。
如要构建 Docker 映像,请创建一个包含为创建 OpenVINO 工具套件安装映像所必需的定义变量和命令的Dockerfile
。
请使用以下样本作为模板创建您的Dockerfile
:
单击以展开/折叠
注意:请将
package_url
自变量中通往英特尔® Distribution of OpenVINO™ 工具套件的直接链接替换为最新版本。您可以在完成注册后,从英特尔® Distribution of OpenVINO™ 工具套件下载页面复制该链接。请在您的浏览器中右键单击 Linux 版已下载页面中的离线安装程序按钮,然后按下复制链接地址。
您可以通过修改silent.cfg
文件中的COMPONENTS
参数来选择将安装哪些 OpenVINO 组件。例如,如果只准备为推断引擎安装 CPU 运行时,请在silent.cfg
中设置COMPONENTS=intel-openvino-ie-rt-cpu__x86_64
。
要获得可安装组件的完整列表,请从已解压的 OpenVINO™ 工具套件包中运行./install.sh --list_components
命令。
要为 CPU 构建 Docker* 映像,请运行以下命令:
docker build . -t <image_name> \
--build-arg HTTP_PROXY=<http://your_proxy_server.com:port> \
--build-arg HTTPS_PROXY=<https://your_proxy_server.com:port>
使用以下命令运行映像:
docker run -it <image_name>
先决条件:
默认情况下 GPU 在容器中不可用,您必须先将其附加至容器。
内核驱动程序必须已安装在主机上。
英特尔® OpenCL™ 运行时包必须被包含在容器中。
在容器中,用户必须位于video
组中。
在 GPU 上构建 Docker* 映像之前,请先将以下命令添加到上述 CPU Dockerfile
示例中:
WORKDIR /tmp/opencl
RUN usermod -aG video openvino
RUN apt-get update && \
apt-get install -y --no-install-recommends ocl-icd-libopencl1 && \
rm -rf /var/lib/apt/lists/* && \
curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-gmmlib_19.3.2_amd64.deb" --output "intel-gmmlib_19.3.2_amd64.deb" && \
curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-igc-core_1.0.2597_amd64.deb" --output "intel-igc-core_1.0.2597_amd64.deb" && \
curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-igc-opencl_1.0.2597_amd64.deb" --output "intel-igc-opencl_1.0.2597_amd64.deb" && \
curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-opencl_19.41.14441_amd64.deb" --output "intel-opencl_19.41.14441_amd64.deb" && \
curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-ocloc_19.04.12237_amd64.deb" --output "intel-ocloc_19.04.12237_amd64.deb" && \
dpkg -i /tmp/opencl/*.deb && \
ldconfig && \
rm /tmp/opencl
要为 GPU 构建 Docker* 映像,请运行以下命令:
docker build . -t <image_name> \
--build-arg HTTP_PROXY=<http://your_proxy_server.com:port> \
--build-arg HTTPS_PROXY=<https://your_proxy_server.com:port>
如要使 GPU 在容器中可用,请使用--device /dev/dri
选项将 GPU 附加到容器,然后运行容器:
docker run -it --device /dev/dri <image_name>
使用与 CPU 相同的步骤构建 Docker 映像。
已知的限制:
英特尔® Movidius™ 神经电脑棒设备在执行期间会改变 VendorID 和 DeviceID,并且每一次都会将主机系统作为全新设备来查找。这意味着它无法像往常一样被载入。
UDEV 事件在默认情况下无法被向前传送到容器,它不了解设备的重新连接。
仅支持每个主机一台设备。
使用以下选项之一来运行适用于英特尔 Movidius 神经电脑棒的可能的解决方案:
解决方案 #1:
通过重新构建在 Docker* 映像中无需 UDEV 支持的libusb
,来去除 UDEV(将以下命令添加到上述适用于 CPU 的Dockerfile
示例中):
RUN usermod -aG users openvino
WORKDIR /opt
RUN curl -L https://github.com/libusb/libusb/archive/v1.0.22.zip --output v1.0.22.zip && \
unzip v1.0.22.zip
WORKDIR /opt/libusb-1.0.22
RUN ./bootstrap.sh && \
./configure --disable-udev --enable-shared && \
make -j4
RUN apt-get update && \
apt-get install -y --no-install-recommends libusb-1.0-0-dev=2:1.0.21-2 && \
rm -rf /var/lib/apt/lists/*
WORKDIR /opt/libusb-1.0.22/libusb
RUN /bin/mkdir -p '/usr/local/lib' && \
/bin/bash ../libtool --mode=install /usr/bin/install -c libusb-1.0.la '/usr/local/lib' && \
/bin/mkdir -p '/usr/local/include/libusb-1.0' && \
/usr/bin/install -c -m 644 libusb.h '/usr/local/include/libusb-1.0' && \
/bin/mkdir -p '/usr/local/lib/pkgconfig'
WORKDIR /opt/libusb-1.0.22/
RUN /usr/bin/install -c -m 644 libusb-1.0.pc '/usr/local/lib/pkgconfig' && \
ldconfig
运行 Docker* 映像:
解决方案 #2:在特权模式下运行容器,以主机身份启用 Docker 网络配置,并将所有设备载入容器:
docker run --privileged -v /dev:/dev --network=host <image_name>
注意:
它不安全
与 Kubernetes* 和其他使用编排和私有网络的工具发生冲突
docker run --device-cgroup-rule='c 189:* rmw' -v /dev/bus/usb:/dev/bus/usb <image_name>
如要在采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 上将 Docker 容器用于推断:
在主机上设置环境,这将用于运行 Docker*。需要执行hddldaemon
,它负责 HDDL 插件和主板之间的通信。如要了解如何设置环境(OpenVINO 包必须已预先安装),请参见采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 配置指南。
准备 Docker* 映像。作为基础映像,您可以使用为 CPU 构建 Docker 映像一节中的映像。如要将其用于采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 上的推断,您需要通过添加以下依赖项来重建映像:
RUN apt-get update && \
apt-get install -y --no-install-recommends \
libboost-filesystem1.65-dev=1.65.1+dfsg-0ubuntu5 \
libboost-thread1.65-dev=1.65.1+dfsg-0ubuntu5 \
libjson-c3=0.12.1-1.3 libxxf86vm-dev=1:1.1.4-1 && \
rm -rf /var/lib/apt/lists/*
使用以下命令在主机上用一个单独的终端进程运行hddldaemon
:
$HDDL_INSTALL_DIR/hddldaemon
要为采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 运行已构建好的 Docker* 映像,请使用以下命令:
docker run --device=/dev/ion:/dev/ion -v /var/tmp:/var/tmp -ti <image_name>
注意:
设备
/dev/ion
需要先被共享,才能在插件、hddldaemon
和内核中使用离子缓冲器。由于独立的推断任务共享相同的 HDDL 服务通信接口(该服务会在
/var/tmp
中创建 mutexes 和插槽文件),因此需要载入/var/tmp
并在它们中共享。
在某些案例中,离子驱动程序未启用(例如,因为更新的内核版本或 iommu 不兼容)。lsmod | grep myd_ion
返回的输出为空。要解决该问题,请使用以下命令:
docker run --rm --net=host -v /var/tmp:/var/tmp –ipc=host -ti <image_name>
注意:
在构建 Docker 映像时,在请在 docker 文件中创建用户,使其 UID 和 GID 与在主机上运行 hddldaemon 的用户相同。
以该用户的身份在 Docker 中运行应用程序。
或者,您可以在主机上以根用户的身份启动 hddlaemon,但我们不推荐这种方法。
默认情况下 FPGA 卡在容器中不可用,但它可以在以下先决条件下被载入其中:
FPGA 设备已为运行推断准备就绪。
FPGA 比特流已通过 PCIe 推送至设备。
如要为 FPGA 构建 Docker* 映像:
在以下Dockerfile
中设置额外的环境变量:
ENV CL_CONTEXT_COMPILER_MODE_INTELFPGA=3
ENV DLA_AOCX=/opt/intel/openvino/a10_devkit_bitstreams/2-0-1_RC_FP11_Generic.aocx
ENV PATH=/opt/altera/aocl-pro-rte/aclrte-linux64/bin:$PATH
安装以下 UDEV 规则:
cat <<EOF > fpga.rules
KERNEL=="acla10_ref*",GROUP="users",MODE="0660"
EOF
sudo cp fpga.rules /etc/udev/rules.d/
sudo udevadm control --reload-rules
sudo udevadm trigger
sudo ldconfig
确保容器用户已被添加到与主机 GID 相同的“用户”组中。
如要为 FPGA 运行已构建的 Docker* 容器,请使用以下命令:
docker run --rm -it \
--mount type=bind,source=/opt/intel/intelFPGA_pro,destination=/opt/intel/intelFPGA_pro \
--mount type=bind,source=/opt/altera,destination=/opt/altera \
--mount type=bind,source=/etc/OpenCL/vendors,destination=/etc/OpenCL/vendors \
--mount type=bind,source=/opt/Intel/OpenCL/Boards,destination=/opt/Intel/OpenCL/Boards \
--device /dev/acla10_ref0:/dev/acla10_ref0 \
<image_name>
ubuntu18_runtime dockerfile - 可以用于构建 OpenVINO™ 运行时映像,其中包含的将 OpenVINO™ 用于生产环境中时所必需的依赖项最少。
ubuntu18_dev dockerfile - 可以用于构建 OpenVINO™ 开发人员映像,其中包含完整的 OpenVINO™ 包,以便在开发环境中使用。
以上是“如何从Docker映像安装适用于Linux*的OpenVINO™工具套件”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。