温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

如何从Docker映像安装适用于Linux*的OpenVINO™工具套件

发布时间:2021-11-26 13:45:34 来源:亿速云 阅读:157 作者:小新 栏目:云计算

这篇文章主要为大家展示了“如何从Docker映像安装适用于Linux*的OpenVINO™工具套件”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何从Docker映像安装适用于Linux*的OpenVINO™工具套件”这篇文章吧。

英特尔® Distribution of OpenVINO™ 工具套件可以快速部署可媲美人类视觉的应用程序和解决方案。该工具套件基于复杂神经网络(CNN),通过英特尔® 硬件扩展了计算机视觉 (CV) 工作负载,从而最大化性能。英特尔® Distribution of OpenVINO™ 工具套件中包含了英特尔® Deep Learning Deployment Toolkit。

本指南提供了通过适用于 Linux* 的英特尔® Distribution of OpenVINO™ 工具套件创建 Docker* 映像,以及进一步进行安装的步骤。

系统要求

目标操作系统

  • Ubuntu* 18.04 长期支持 (LTS),64 位

主机操作系统

  • 已安装 GPU 驱动程序和受 GPU 驱动程序支持的 Linux 内核的 Linux

将 Docker* 映像用于 CPU

  • 内核向所有容器报告与本地应用程序一样的信息,如 CPU 和内存信息。

  • 所有主机进程可用的指令对于容器中的进程均可用,包括 AVX2、AVX512 等。不存在限制。

  • Docker* 不使用虚拟化或仿真。Docker* 中的进程只是一种常规 Linux 进程,但它在内核水平上与其外部世界隔离。性能损失很小。

为 CPU 构建 Docker* 映像

如要构建 Docker 映像,请创建一个包含为创建 OpenVINO 工具套件安装映像所必需的定义变量和命令的Dockerfile

请使用以下样本作为模板创建您的Dockerfile

单击以展开/折叠

注意:请将package_url自变量中通往英特尔® Distribution of OpenVINO™ 工具套件的直接链接替换为最新版本。您可以在完成注册后,从英特尔® Distribution of OpenVINO™ 工具套件下载页面复制该链接。请在您的浏览器中右键单击 Linux 版已下载页面中的离线安装程序按钮,然后按下复制链接地址

您可以通过修改silent.cfg文件中的COMPONENTS参数来选择将安装哪些 OpenVINO 组件。例如,如果只准备为推断引擎安装 CPU 运行时,请在silent.cfg中设置COMPONENTS=intel-openvino-ie-rt-cpu__x86_64

要获得可安装组件的完整列表,请从已解压的 OpenVINO™ 工具套件包中运行./install.sh --list_components命令。

要为 CPU 构建 Docker* 映像,请运行以下命令:

docker build . -t <image_name> \

--build-arg HTTP_PROXY=<http://your_proxy_server.com:port> \

--build-arg HTTPS_PROXY=<https://your_proxy_server.com:port>

为 CPU 运行 Docker* 映像

使用以下命令运行映像:

docker run -it <image_name>

将 Docker* 映像用于 GPU

为 GPU 构建 Docker* 映像

先决条件:

  • 默认情况下 GPU 在容器中不可用,您必须先将其附加至容器。

  • 内核驱动程序必须已安装在主机上。

  • 英特尔® OpenCL™ 运行时包必须被包含在容器中。

  • 在容器中,用户必须位于video组中。

在 GPU 上构建 Docker* 映像之前,请先将以下命令添加到上述 CPU Dockerfile示例中:

WORKDIR /tmp/opencl

RUN usermod -aG video openvino

RUN apt-get update && \

apt-get install -y --no-install-recommends ocl-icd-libopencl1 && \

rm -rf /var/lib/apt/lists/* && \

curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-gmmlib_19.3.2_amd64.deb" --output "intel-gmmlib_19.3.2_amd64.deb" && \

curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-igc-core_1.0.2597_amd64.deb" --output "intel-igc-core_1.0.2597_amd64.deb" && \

curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-igc-opencl_1.0.2597_amd64.deb" --output "intel-igc-opencl_1.0.2597_amd64.deb" && \

curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-opencl_19.41.14441_amd64.deb" --output "intel-opencl_19.41.14441_amd64.deb" && \

curl -L "https://github.com/intel/compute-runtime/releases/download/19.41.14441/intel-ocloc_19.04.12237_amd64.deb" --output "intel-ocloc_19.04.12237_amd64.deb" && \

dpkg -i /tmp/opencl/*.deb && \

ldconfig && \

rm /tmp/opencl

要为 GPU 构建 Docker* 映像,请运行以下命令:

docker build . -t <image_name> \

--build-arg HTTP_PROXY=<http://your_proxy_server.com:port> \

--build-arg HTTPS_PROXY=<https://your_proxy_server.com:port>

为 GPU 运行 Docker* 映像

如要使 GPU 在容器中可用,请使用--device /dev/dri选项将 GPU 附加到容器,然后运行容器:

docker run -it --device /dev/dri <image_name>

将 Docker* 映像用于英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2 的步骤

为英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2 构建 Docker* 映像的步骤

使用与 CPU 相同的步骤构建 Docker 映像。

为英特尔® Movidius™ 神经电脑棒和英特尔® 神经电脑棒 2 运行 Docker* 映像的步骤

已知的限制:

  • 英特尔® Movidius™ 神经电脑棒设备在执行期间会改变 VendorID 和 DeviceID,并且每一次都会将主机系统作为全新设备来查找。这意味着它无法像往常一样被载入。

  • UDEV 事件在默认情况下无法被向前传送到容器,它不了解设备的重新连接。

  • 仅支持每个主机一台设备。

使用以下选项之一来运行适用于英特尔 Movidius 神经电脑棒的可能的解决方案:

  • 解决方案 #1

    1. 通过重新构建在 Docker* 映像中无需 UDEV 支持的libusb,来去除 UDEV(将以下命令添加到上述适用于 CPU 的Dockerfile示例中):

      RUN usermod -aG users openvino

      WORKDIR /opt

      RUN curl -L https://github.com/libusb/libusb/archive/v1.0.22.zip --output v1.0.22.zip && \

      unzip v1.0.22.zip

       

      WORKDIR /opt/libusb-1.0.22

      RUN ./bootstrap.sh && \

      ./configure --disable-udev --enable-shared && \

      make -j4

      RUN apt-get update && \

      apt-get install -y --no-install-recommends libusb-1.0-0-dev=2:1.0.21-2 && \

      rm -rf /var/lib/apt/lists/*

       

      WORKDIR /opt/libusb-1.0.22/libusb

      RUN /bin/mkdir -p '/usr/local/lib' && \

      /bin/bash ../libtool --mode=install /usr/bin/install -c libusb-1.0.la '/usr/local/lib' && \

      /bin/mkdir -p '/usr/local/include/libusb-1.0' && \

      /usr/bin/install -c -m 644 libusb.h '/usr/local/include/libusb-1.0' && \

      /bin/mkdir -p '/usr/local/lib/pkgconfig'

       

      WORKDIR /opt/libusb-1.0.22/

      RUN /usr/bin/install -c -m 644 libusb-1.0.pc '/usr/local/lib/pkgconfig' && \

      ldconfig

    2. 运行 Docker* 映像:

  • 解决方案 #2:在特权模式下运行容器,以主机身份启用 Docker 网络配置,并将所有设备载入容器:

    docker run --privileged -v /dev:/dev --network=host <image_name>

注意

  • 它不安全

  • 与 Kubernetes* 和其他使用编排和私有网络的工具发生冲突

docker run --device-cgroup-rule='c 189:* rmw' -v /dev/bus/usb:/dev/bus/usb <image_name>

将 Docker* 映像用于采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design

为采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 构建 Docker* 映像

如要在采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 上将 Docker 容器用于推断:

  1. 在主机上设置环境,这将用于运行 Docker*。需要执行hddldaemon,它负责 HDDL 插件和主板之间的通信。如要了解如何设置环境(OpenVINO 包必须已预先安装),请参见采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 配置指南。

  2. 准备 Docker* 映像。作为基础映像,您可以使用为 CPU 构建 Docker 映像一节中的映像。如要将其用于采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 上的推断,您需要通过添加以下依赖项来重建映像:

    RUN apt-get update && \

    apt-get install -y --no-install-recommends \

    libboost-filesystem1.65-dev=1.65.1+dfsg-0ubuntu5 \

    libboost-thread1.65-dev=1.65.1+dfsg-0ubuntu5 \

    libjson-c3=0.12.1-1.3 libxxf86vm-dev=1:1.1.4-1 && \

    rm -rf /var/lib/apt/lists/*

  3. 使用以下命令在主机上用一个单独的终端进程运行hddldaemon

    $HDDL_INSTALL_DIR/hddldaemon

为采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 运行 Docker* 映像

要为采用英特尔® Movidius™ 视觉处理器的英特尔® Vision Accelerator Design 运行已构建好的 Docker* 映像,请使用以下命令:

docker run --device=/dev/ion:/dev/ion -v /var/tmp:/var/tmp -ti <image_name>

注意

  • 设备/dev/ion需要先被共享,才能在插件、hddldaemon和内核中使用离子缓冲器。

  • 由于独立的推断任务共享相同的 HDDL 服务通信接口(该服务会在/var/tmp中创建 mutexes 和插槽文件),因此需要载入/var/tmp并在它们中共享。

在某些案例中,离子驱动程序未启用(例如,因为更新的内核版本或 iommu 不兼容)。lsmod | grep myd_ion返回的输出为空。要解决该问题,请使用以下命令:

docker run --rm --net=host -v /var/tmp:/var/tmp –ipc=host -ti <image_name>

注意

  • 在构建 Docker 映像时,在请在 docker 文件中创建用户,使其 UID 和 GID 与在主机上运行 hddldaemon 的用户相同。

  • 以该用户的身份在 Docker 中运行应用程序。

  • 或者,您可以在主机上以根用户的身份启动 hddlaemon,但我们不推荐这种方法。

将 Docker* 映像用于 FPGA

为 FPGA 构建 Docker* 映像

默认情况下 FPGA 卡在容器中不可用,但它可以在以下先决条件下被载入其中:

  • FPGA 设备已为运行推断准备就绪。

  • FPGA 比特流已通过 PCIe 推送至设备。

如要为 FPGA 构建 Docker* 映像:

  1. 在以下Dockerfile中设置额外的环境变量:

    ENV CL_CONTEXT_COMPILER_MODE_INTELFPGA=3

    ENV DLA_AOCX=/opt/intel/openvino/a10_devkit_bitstreams/2-0-1_RC_FP11_Generic.aocx

    ENV PATH=/opt/altera/aocl-pro-rte/aclrte-linux64/bin:$PATH

  2. 安装以下 UDEV 规则:

    cat <<EOF > fpga.rules

    KERNEL=="acla10_ref*",GROUP="users",MODE="0660"

    EOF

    sudo cp fpga.rules /etc/udev/rules.d/

    sudo udevadm control --reload-rules

    sudo udevadm trigger

    sudo ldconfig

    确保容器用户已被添加到与主机 GID 相同的“用户”组中。

为 FPGA 运行 Docker* 容器

如要为 FPGA 运行已构建的 Docker* 容器,请使用以下命令:

docker run --rm -it \

--mount type=bind,source=/opt/intel/intelFPGA_pro,destination=/opt/intel/intelFPGA_pro \

--mount type=bind,source=/opt/altera,destination=/opt/altera \

--mount type=bind,source=/etc/OpenCL/vendors,destination=/etc/OpenCL/vendors \

--mount type=bind,source=/opt/Intel/OpenCL/Boards,destination=/opt/Intel/OpenCL/Boards \

--device /dev/acla10_ref0:/dev/acla10_ref0 \

<image_name>

示例

  • ubuntu18_runtime dockerfile - 可以用于构建 OpenVINO™ 运行时映像,其中包含的将 OpenVINO™ 用于生产环境中时所必需的依赖项最少。

  • ubuntu18_dev dockerfile - 可以用于构建 OpenVINO™ 开发人员映像,其中包含完整的 OpenVINO™ 包,以便在开发环境中使用。

以上是“如何从Docker映像安装适用于Linux*的OpenVINO™工具套件”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI