MoreRSS

site iconMoreality修改

偏个人软、硬件开箱记录的博客
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

Moreality的 telegram 的 RSS 预览

#llm

2025-04-12 23:22:02

#llm

grok 启动,充值 5 刀白嫖 150 刀~

via Memos

Invalid media: image

#mark

2025-04-12 16:01:12

#mark

mcp servers

https://mcp.so/zh

via Memos

Invalid media: image

#mark

2025-03-18 22:59:00

#mark

一个非常简单的利用 netcat 就可以免验证上传 code snippet 的工具: https://termbin.com

简单封装了一下

tb () {
if [ $# -eq 0 ]
then
cat | nc termbin.com 9999
else
if [ -f "$1" ]
then
cat "$1" | nc termbin.com 9999
else
echo "$*" | nc termbin.com 9999
fi
fi
}


via Memos

#bb #llm

2025-03-07 13:09:11

#bb #llm

groq 这个推理速度真的逆天

via Memos

Invalid media: image

vllm 的 cpu offload 参数卸载逻辑代码简析

2025-03-02 17:49:01

vllm 的 cpu offload 参数卸载逻辑代码简析

via Blog

Telegraph
vllm 的 cpu offload 参数卸载逻辑代码简析

最近在看 vllm 的代码,cpu offloading 这部分它的实现还是比较简单的,这里简单记录一下。 由于大模型的参数量实在很大,所以如果想在单机上运行一般都需要跑量化蒸馏后的模型,但是有时又不想牺牲模型质量,于是CPU/SSD 卸载成为一种折衷方案,通过增加推理时间来降低内存需求。 vllm 也实现了一个简单的 cpu offload 的机制,可以通过 --cpu-offload-gb 启用。 官方文档: https://docs.vllm.ai/en/latest/getting_starte…

#bb

2025-02-24 21:28:02

#bb

完蛋了,google drive 2T 土区直接翻了四倍的价格。。

via Memos

Invalid media: image