这篇文章主要介绍“tkestack/gpu-manager在k8s1.23版本之后如何使用”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“tkestack/gpu-manager在k8s1.23版本之后如何使用”文章能帮助大家解决问题。
在1.25版本的k8s集群中部署gpu-manage时,虽然显示gpu节点上gpu-manage的pod实例都是running状态,但是给pod申领tencent.com/vcuda-memory
资源时,却始终找不到有资源的节点。
查看节点的详情时,返回的allocatable
字段中也没有相关资源:
Allocatable: cpu: 48 ephemeral-storage: 48294789041 hugepages-1Gi: 0 hugepages-2Mi: 0 memory: 65291520Ki pods: 110 System Info: Machine ID: 50ca20960ea94552bd5ef84a20ce7e47
说明gpu-manager
并没有正确运行。
查看任意gpu-manager的pod日志,可以看到如下异常信息:
rebuild ldcache
launch gpu manager
E0426 06:17:06.729262 2384 server.go:131] Unable to set Type=notify in systemd service file?
E0426 06:17:11.731947 2384 server.go:152] can't create container runtime manager: context deadline exceeded
说明gpu-manager和容器运行时接口通信失败了。
查看异常信息指向的代码:
... containerRuntimeManager, err := containerRuntime.NewContainerRuntimeManager( m.config.CgroupDriver, m.config.ContainerRuntimeEndpoint, m.config.RequestTimeout) if err != nil { klog.Errorf("can't create container runtime manager: %v", err) return err } klog.V(2).Infof("Container runtime manager is running") ...
可以看到是访问m.config.ContainerRuntimeEndpoint
超时,这个变量的默认值定义在cmd/manager/options/options.go
const ( DefaultDriver = "nvidia" DefaultQueryPort = 5678 DefaultSamplePeriod = 1 DefaultVirtualManagerPath = "/etc/gpu-manager/vm" DefaultAllocationCheckPeriod = 30 DefaultCheckpointPath = "/etc/gpu-manager/checkpoint" DefaultContainerRuntimeEndpoint = "/var/run/dockershim.sock" DefaultCgroupDriver = "cgroupfs" )
可以看到这里用的运行时接口是/var/run/dockershim.sock
,但是在k8s1.23版本之后,接口路径已经改为/var/run/cri-dockerd.sock
,所以修改默认之后重新编译即可。
使用make img
既可以用源码的Makefile自动编译打包成新的镜像,但是源码的/home/zp/work/gpu-manager/build/Dockerfile
中的git222
不一定能装上,可以改成git
,另外有一些依赖需要国际上的支持。
编译后的镜像在1.25版本的k8s中可以正常使用。
关于“tkestack/gpu-manager在k8s1.23版本之后如何使用”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识,可以关注亿速云行业资讯频道,小编每天都会为大家更新不同的知识点。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。