Docker内使用avahi-deamon服务
Docker内调用GPU方法
部署GPU服务器需要多人同时使用,每个人环境各不相同希望资源隔离
采用虚拟化直通的方法配置太复杂,购买vGPU费用太过炸裂
经过了解最终决定使用Docker实现上述功能
想要Container具备使用Host GPU的能力需要一些技巧
根据Nvidia官方的建议Host尽可能安装最新的显卡驱动
CUDA及其他三方库可再Container中自由配置实现隔离
整体架构图如下
以Ubuntu为例子docker可以直接通过sudo apt install docker.io
获取
GPU驱动可以在Official Drivers | NVIDIA获取
注意安装驱动过程中会改写docker的json配置文件,因此建议装好驱动后再换源避免冲突
上述准备完成后开始安装Container Toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \ && curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
完成GPG Key导入后即可安装自定义包
sudo apt-get update sudo apt-get install -y nvidia-docker2 sudo systemctl restart docker
最后验证GPU能否成功调用,成功会打印GPU列表以及驱动/CUDA版本
sudo docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi
为了更好的网络性能和接近物理机的体验,所有Container以
选择macvlan方式部署并分配固定ip地址便于管理,具体可参考我这篇博客
同时希望container也可以被xxx.local
的本地域名访问到
开启host网卡混杂并在container中安装avahi-daemon
服务
正常安装但无法启动,关闭dbus
后即可正常访问
sudo vi /etc/avahi/avahi-daemon.conf # enable-dbus=no sudo /etc/init.d/avahi-daemon start * Starting Avahi mDNS/DNS-SD Daemon avahi-daemon [ OK ]
Installation Guide — NVIDIA Cloud Native Technologies documentation
Docker网络配置的几种常见模式 - azureology - 博客园
How do I advertise AND browse mDNS from within docker container? - Stack Overflow