2025-03-06 06:00:00
上一篇我们简单分析一下 HAMi-Core(libvgpu.so) vCUDA 的工作原理,包括怎么生效的,CUDA API 怎么拦截的,以及是怎么实现的对 GPU 的 core、memory 资源的 limit 的。
这一篇我们分析一下 HAMi 的调度特性:根据 GPU 类型甚至 UUID 实现精细调度。
2025-02-25 06:00:00
14G 显存跑动千亿大模型!基于 KTransformers 的 DeepSeek-R1’满血版’实战。
2025-02-19 06:00:00
本文主要分享如何 K8s Operator 开发最佳实践: 如使用 OwnerReference 做级联删除,使用 Finalizers 做资源清理等等。
2025-01-16 06:00:00
本文主要分享 K8s Operator 开发中的本地调试环节,鉴于复杂 Operator 开发难以一蹴而就,调试操作频繁,传统构建、推送、重启服务流程繁琐,因此着重分享在本地环境连接线上 K8s 集群进行开发调试的方法。
2025-01-09 06:00:00
上篇我们分析了 hami-scheduler 中 Spread、Binpack 等高级调度策略是怎么实现的。
本文为 HAMi 原理分析的第五篇,简单分析一下 HAMi-Core(libvgpu.so) vCUDA 的工作原理,包括怎么生效的,CUDA API 怎么拦截的,以及是怎么实现的对 GPU 的 core、memory 资源的 limit 的。