Loading

使用Docker实现GPU服务器共享与资源隔离

SEO

Docker内使用avahi-deamon服务
Docker内调用GPU方法
Docker内安装CUDA

构想

部署GPU服务器需要多人同时使用,每个人环境各不相同希望资源隔离
采用虚拟化直通的方法配置太复杂,购买vGPU费用炸裂
经过了解最终决定使用Docker实现上述功能

实施

概览

想要Container具备使用Host GPU的能力需要一些技巧
根据Nvidia官方的建议Host尽可能安装最新的显卡驱动
CUDA及其他三方库可再Container中自由配置实现隔离
整体架构图如下

GPU

以Ubuntu为例子docker可以直接通过sudo apt install docker.io获取
GPU驱动可以在Official Drivers | NVIDIA获取
注意:安装驱动过程中会改写docker的json配置文件,因此建议装好驱动后再换源避免冲突
上述准备完成后开始安装Container Toolkit

distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \
&& curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
&& curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

完成GPG Key导入后即可安装自定义包

sudo apt-get update
sudo apt-get install -y nvidia-docker2
sudo systemctl restart docker

最后验证GPU能否成功调用,成功会打印GPU列表以及驱动/CUDA版本

sudo docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi

网络

为了更好的网络性能和接近物理机的体验,所有Container均
选择macvlan方式部署并分配固定ip地址便于管理,
具体可参考Docker网络配置的几种常见模式
同时希望container也可以被xxx.local的本地域名访问到
开启host网卡混杂并在container中安装avahi-daemon服务
正常安装但无法启动,关闭dbus后即可正常访问

sudo vi /etc/avahi/avahi-daemon.conf
# enable-dbus=no
sudo /etc/init.d/avahi-daemon start
* Starting Avahi mDNS/DNS-SD Daemon avahi-daemon    [ OK ]

后记

  • 部分镜像ssh连接可能需要手动开启sudo /etc/init.d/ssh start
  • 使用三方image调用GPU记得向docker run追加--gpus all参数

参考

Installation Guide — NVIDIA Cloud Native Technologies documentation
Docker网络配置的几种常见模式 - azureology - 博客园
How do I advertise AND browse mDNS from within docker container? - Stack Overflow

posted @ 2022-07-07 14:25  azureology  阅读(1828)  评论(0)    收藏  举报