之前我们在centos/ubuntu上安装过nvidia-container-runtime,配置也都是在docker中配置的,那么我们最近本地环境整体从docker换成了containerd,那么今天就来记录下在containerd中如何配置默认的runc到nvidia的container runtime。
安装的话还是可以查看以前的笔记
centos7安装:https://sulao.cn/post/939
ubuntu安装:https://sulao.cn/post/916
接下来修改/etc/containerd/config.toml文件。
修改plugins."io.containerd.runtime.v1.linux"的配置,修改runtime为nvidia-container-runtime
[plugins."io.containerd.runtime.v1.linux"] runtime = "nvidia-container-runtime" no_shim = false shim_debug = false shim = "containerd-shim" runtime_root = ""
修改plugins."io.containerd.grpc.v1.cri".containerd配置,修改default_runtime_name为nvidia
[plugins."io.containerd.grpc.v1.cri".containerd] disable_snapshot_annotations = true ignore_blockio_not_enabled_errors = false default_runtime_name = "nvidia" ignore_rdt_not_enabled_errors = false discard_unpacked_layers = false snapshotter = "overlayfs" no_pivot = false
新增plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia和对应的options配置
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia] privileged_without_host_devices = false runtime_engine = "" runtime_root = "" runtime_type = "io.containerd.runc.v2" [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia.options] BinaryName = "/usr/bin/nvidia-container-runtime" SystemdCgroup = true
以上配置修改以后我们重启下containerd检查下
systemctl daemon-reload systemctl restart containerd containerd config dump #检查配置
内容版权声明:除非注明,否则皆为本站原创文章。
转载注明出处:https://sulao.cn/post/944
相关推荐
- ubuntu22.04使用containerd部署k8s集群
- k8s中修改containerd存储目录并将数据迁移到新磁盘目录
- linux部署开发者工具包NVIDIA HPC SDK
- linux部署NVIDIA HPC-X综合软件包环境
- nvidia-peermem和dmabuf两种GDR方式的区别
- k8s集群中英伟达gpu多实例mig资源上报和分配方法
- ubuntu22.04安装nvidia-container-runtime
- ubuntu22.04离线安装containerd和crictl管理工具
- python使用toml模块生成containerd仓库配置
- 英伟达GPU异常问题常见处理方法
评论列表