MoreRSS

site iconEST修改

EST = Extrospect, Sein & Tao ,后端工程师。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

EST的 RSS 预览

claw会代替员工?

2026-03-22 10:58:00

无聊刷到 王自如

agent在本地加数据持久化和永久记忆这三件事是不是就是openclaw(🦞)。🦞,如果用在产业当中的意义是什么? 意味着一个员工在工作电脑上每天做的事情产出了什么东西, 结果有没有价值,都会以记忆的方式存在本地。 而如果时间足够长, 一个员工的工作行为思维方式一定可以通过对话的内容和工作产出进行抽象 化和提炼。 也就是说,假以时日,一个人真正的价值就会完成从个体到数字化资产的转移。 也就是说你就会成为养你的工作🦞的营养员,你是那个营养液。
一旦你的工作模式,你的思维模式被抽象化提炼,那个你抽象完毕了的数据和🦞里边这个东西会成为公司最宝贵的资产, 你则是disposable。 那么如果公司需要新的角度,完全可以把你干掉,换一个新人来。

我对这个看法是,太悲观了。太低估了人类造屎山的能力了。

诚然,某些行业,某些岗位,是会被 🦞 代替的。但是一旦职场老油条把 🦞用得飞起,那么几年,甚至几个月沉淀下来的屎山就没人敢去接手了。各种配置、方言、DSL、灵机一动的 prompt,你就去萃取吧,一分析一个不吱声。

而且可以肯定的是,越平庸的员工,你越容易分析,能力越强的员工,他造屎山的动机和效率越高。

🦞越强大,「共识」分裂得就越快。如果真想做到王自如那样,任何一个岗位必须引入「社会化」配合,不能只按照一位员工的思路做事。必须有一套完整的harness来约束(讽刺的是,harness本来是约束 马 或者AI Agent的)。必须严格按照标准 SOP 做事。这样才有可替代性。

有人说,再套一个 agent 来监管,AI纠偏。王自如说:

多机器人协同一定是大势所趋,他会把所有的繁琐工作,所有的friction抹掉,然后agent to agent,然后 🦞to🦞,对吧?

我想问,真的没 friction 了吗? 这 friction 不就来了。

那么问题来了,既然有SOP了,为啥不用 ERP?

🦞怎么才能走融合SOP的路线?把单聊换成群聊,员工发起配置、prompt,主管审批?😂😂😂😂😂😂😂

组织性的东西,天然就是反超级员工的。

所以王自如这个「未来」,说不定有另一个结局,不是公司把人替换掉,而是公司根本不敢用你这套 🦞。


跟AI推演了一阵,发现王自如的「未来」,和我提出的「反未来」是两个极端,很可能现实属于两者的 tradeoff 达到某种平衡

但是回味了下,这个思路还是狭隘了。都是 legacy company 如何改造现有流程去适应 claw 的矛盾

更有可能的情况是,某些超级牛人做OPC(单人公司)做得太成功,需要招人扩产,这个时候内部 claw 和 agent 一大坨玩意,怎么拆分给别人分担呢?

垂直拆?水平拆?模块化让别人分担一小部分?招个接线员把新业务融入既有的一大坨agent?招客服?招agent调优员?

或许这种从一人 agent 原生长大的公司对这个问题才有真正的正解。


AI给了我两个启发,从 agentic OPC 成长出来的公司有两个无可比拟的优势:

  • 数据的独占性(Data Exclusivity): 只有我这只虾拥有这 5 年最真实的、无法在公网买到的行业博弈记忆。
  • 创始人的“审美与判准” (Taste and Judgment): 这是最难被持久化记忆捕捉的。当 Agent 给出了 A 和 B 两个逻辑自洽的方案时,选择哪一个?这种基于价值观的终极裁决,是连接所有 Agent 的最后一道胶水。

我靠,说得好有道理。最后我想明白了,去辩驳 legacy company 怎么处置员工,那是股东和大老板的事,irrelevant 了。普通人就赶紧去想办法做 OPC 去 disrrupt 行业

如果拿 token 抵工资会发生什么?

2026-03-20 23:56:00

吃饭的时候无聊刷到自媒体,一开始看到这个 配一半薪资token!黄仁勋的AI暴论

我们公司的每一位工程师,都会需要一笔年度token预算,我可能会在他们基本薪资的基础上,再额外给他们相当于一半薪水的token配额,让他们的生产力放大10倍。

当时没太仔细,看错了,以为老黄说以后不发工资了,拿token 来抵工资。。。😂

也没多想。但是突然回想起以前写过一篇《996的内在机制是什么》。里面有一段话

以前,无论是农业时代还是工业时代,我们的工作对象主要是物品,无论种一亩地的庄稼,还是在流水线上加工一个零件,物品的边界是清晰的,所需要的工作时间就是有限的。我们努力的方向,就是通过各种工具和创新,节省时间资源,获得更高的效率。
但是现在我们的工作对象呢?越来越是“事情”。比如写一篇稿子,比如炒股,比如准备一场演出,比如做一次营销活动。只要是“事情”,背后包含的复杂度就太高了。而且,只要是一件“事情”,就可以膨胀成任何规模的工作。

加上最近 openclaw 特别火,导致我心里有个隐隐约约的想法在酝酿,突然发现,「做事」现在变得可以量化了。如果把人类劳动分为体力劳动和脑力劳动,脑力劳动「量」可以用AI来对标了。你不做有的是AI来做。

「做事」可以量化,同时老黄拿 token 当激励发,这两件事在我脑海里挥之不去,然后:

假如世界没有货币。拿token当货币,会发生啥?

比如说我上一个月班,老板发给我1亿token,我花1000w给孩子报培训班,培训班花500w token去设计学科教学。似乎能闭环?

比如你买衣服,一个衣服的价值,样式设计需要花token、token控制成衣产线、token电商购物、token自动驾驶配送。衣食住行等基本需求套用这个逻辑似乎没毛病?

服务性消费那更不用说了。办公室行业都是被AI支配的恐惧。

这是个很滑稽的想法。我跟周围的人、群友和AI都讨论了一通。很多真人都嗤之以鼻,但是AI探讨了下,似乎没啥太大毛病?

什么是钱?钱是拿来交换的一般等价物。交换什么呢?早期是商品

商品的价值怎么量化呢?19世纪中叶之前,主流学说是 劳动价值论(Labor Theory of Value),亚当·斯密、马克思主义政治经济学的核心观点;现代主流认为:商品的价值并不客观存在于它凝聚了多少时间,而是完全取决于消费者主观上认为它有多大效用(需求),以及该商品的稀缺程度。

我个人觉得这两者不是替代关系。前者是没温饱的价值体系,后者是吃多了撑的。但是无论如何,钱都是拿来量化价值的。没吃饱之前,实物交易为主,所以货币要peg金银,香料,丝绸,一定范围的领地,粮食就是货币。

吃饱了开始追求情绪价值了,第三产业就发达了,人们追求更高层次的享受、做事的成就和精神上的欢愉,而不是物质回报了。当工作对象变成「事情」,用「时间」来衡量价值就彻底失效了。

过去缺乏更好的度量工具,企业依然主要通过 工时 或 月薪 这种粗糙的时间模型来支付报酬。但是AI出现了,特别是LLM的 token 是人类历史上第一次实现对「复杂度」和「确定性产出」的标准化度量。比如写稿子,你可以写 50 分,也可以精雕细琢到 100 分。在传统工资体系下,老板很难为那多出来的 50 分定价。你用 1,000,000 个 token 解决了一个问题,代替了过去一个人工岗位的工作量,其交付的质量和深度是可以用数字显性化的。

工资不再是买你的“时间”,而是买你处理这件「事」所消耗的「逻辑资」。

某个任务原本需要 100 万个 token 的做,你有一个只需要 1 万个 token 的新方案,那么利润就是 99 万个 token

有人严肃批判这个歪理学说:token 本身波动性巨大,怎么可能作为一般等价物?疯了?比如,我今天挣的 token 能买一头牛,明天因为算法突破只能买一根鸡毛,那社会协作就会崩溃。

传统货币波动源于供应量、信用和市场预期的不确定。法币稳定,是因为政府通过极其昂贵的成本(利息、税收、暴力、通胀)在维持一个虚假的平滑曲线。

token 锚定的是什么呢?我这里开个脑洞:

柯氏(Kolmogorov)复杂度

这个概念可能对于非科班的人很陌生。举个例子有规律的 abababababababababababababababab 可以简写成 16个ab。但如果 4c1j5b2p0cv4w1x8rx2y39umgw5q85s7 呢?很难进一步压缩了。16个ab 这个也很极限了几乎没法精简了。一个字符串 x 的柯氏复杂度 K(x) 是指:能够输出且仅输出这个字符串的最短计算机/图灵机程序的长度。

这个概念套用到「做事」上,就是「做事的步骤的极限精简」。比如 claw 代替脑力劳动完成一个任务,它极限精简的执行指令量,就是 柯氏复杂度。最好玩的是, K(x) 往往是不可求最优解的,只能逼近。

所以,是的,token可能有很大波动性,但是基于经济效益的缘故,它会逐渐收敛到一个成本和效益的平衡点。最后达到纳什均衡?

这一点其实对 early adopter 是有好处的。比如你拿到 1kw 的token,10个月过后算力翻番,模型性能提高,你这 1kw token 能做的事翻倍了。

这样看来,拿 token 去买面包就不那么滑稽了。当面包的生产逻辑(种植、收割、加工)被完全 token 化,面包相对于 token 的价格反而可能是最稳定的。真正波动的是那些 尚未被完全自动化、尚未被 K(x) 彻底压缩 的高端创意或复杂决策。

货币锚定以前是 金本位,它的特点是稀缺性。有人问token有稀缺性吗?哎这不巧了。您猜怎么着,HBM都涨上天了!后来比如美元部分锚定的是石油,这是工业的硬通货。有没有可能,以后某些法币,直接锚定 token?我觉得这是很自然的。甚至 token 本身就是货币。

恰好,token这词语,本来就是 代币 的意思。nVidia这种做游戏显卡的,现在改行做AI factory的,工程师拿到的 token,算一种算力产出分红?甚至,这 0.5 倍的 token 奖励,可能比那 1 倍的美元购买力更稳健?因为它直接对应着 解决问题的能力 。要不川宝考虑下,美元直接挂钩token?算力即国力??!

当然,还有一些特别有趣的质疑,比如

AI会不会进展太快,这玩意通缩?

有句古话,andy giveth and bill taketh away。

通过 K(x),AI和人把原本昂贵的任务(比如蛋白质折叠、通用语义理解)压缩成了极其廉价的 token。这是全社会的福利。但是人类永远不会满足于 省下的算力。一旦基础生存被压缩到极致,人类就会发明出更臃肿、更复杂、更“浪费”的新欲望,640KB内存就够了?想多了。

K(x) 不可计算

我们永远无法确信当前的 token 路径是否已经是“最短”的。这是否意味着 token 系统可能陷入“估值偏差”的永久争议中?

法币定价难道就是可计算的吗?法币背后的 一般劳动时间 或 信用价值 ,在现实中也是通过无数人的博弈、试错、破产才“摸”出来的。恰好因为 K(x) 是不可计算的,这意味着“创新”永远有空间。

AI耗电!算力掏空能源

人类会不会为了获取 token 而无止境地增加宇宙的熵(散热),这可能加速生态热寂或资源枯竭?

所有的法币,甚至黄金,其稀缺性都是可以被技术手段稀释的(比如炼金术、小行星采矿或疯狂印钞)。但 低熵(有序度)是宇宙中唯一不可再生的终极资源。

根据兰道尔原理(Landauer's Principle),抹除 1 比特信息所释放的热量是有物理下限的 E ≥ kBT ln2 。

每一个 token 的生成和流通,背后都有真实的、不可逆的物理代价。这让 token 成了人类历史上第一种无法被“伪造”或“通胀”的货币,因为你无法违背物理定律去凭空创造有序。

既然token值钱,那么聪明人肯定会不顾一切手段去降低获取token的成本。聪明人降低获取成本的方式,绝不是无止境地堆服务器、增加散热(那是笨蛋的做法),而是 “算法突破”,更短的代码、更优的数学模型。这种“逐利”行为,非但不会加速热寂,反而是在拼命延缓热寂。因为 省钱 == 省熵

经济驱使下,全体人类+AI回进行算法竞赛。整个社会将被迫剔除一切臃肿、低效、无意义的中间环节。所有的官僚流程、冗余代码、低效物流,在 token 面前都是巨大的“负债”。

薛定谔在《生命是什么》中提出:生命是以“负熵”为食的。如果我们将 token 定义为负熵的度量,那么,工作不再是去“打工”,而是通过智力把混乱变为秩序。你获得的 token,让你有权去消耗一部分社会总能源,来维持你自己这个复杂系统的生存(吃饭、娱乐、继续进化)。宇宙确实在走向热寂,但 token 体系让这个过程变得极其富有信息量。它把原本无意义的散热,转化成了文明和秩序。

法币背后是政权,有枪和军队,你token有几个师?

法币背后的枪炮是“模糊但有效”的。token 是理性的,但人类社会包含大量非理性的冲动。当有人用物理暴力抢夺你的 token 时,纯算法的货币无法提供政治保护。。。吗?

但是,话又说回来了,战争是昂贵的。2026年美以打伊朗就是个反面教材。一个能用 1 个 token 解决的问题,你非要动用价值 100 万 token 的武力去解决?

当一个国家、社会极度发达的时候,“计算效能”就是最高主权。

为什么取消农业税?收税成本比税收还高。美苏都被治安战给搞麻了。还是得靠金融和技术手段收割全球最划算

token谁都可以造,伪币怎么办?

信用(Trust)的本质,就是一种“高效压缩”。因为我没法拆解你做事的每一个原子步骤,所以我只能“相信”你,这种“相信”是一种极其粗糙的、带噪声的信息压缩。

token 化之后,信用被“证明(Proof)”取代了。 当你交付一个符合 K(x) 原理的结果时,你不需要证明你的诚实,你只需要证明你的逻辑闭环。

也就是说,你去造伪币,发现冶金技术一套下来比真硬币还贵!!!

如果你解决一个问题使用了冗余的算法,你就是在挥霍你的“生命值”。

AI 代替人类,消灭人类?

把人消灭,换成低功耗芯片?这个不会的。因为有 property,有 ownership 的概念,物权,所有制不会消亡

token 只是可执行能力的量化单位,但它本身并不等于价值本体,真正决定谁能调用谁的能力、谁能受益、谁有发言权的,是所有权。

我觉得人还是会掌握价值分配和决策权。但是会不会有贫富差距,我就不知道了。

情绪价值呢?精神无价!

其实这不是bug,是feature。上面讨论这一套,极度理性的世界,会通缩。

为什么一张周杰伦的演唱会门票值那么多 token?因为虽然它的 K(x) 不高,但它在千万个人的情感神经元中触发了极其复杂的、难以压缩的共鸣(High Subjective Complexity)。正由于人类情感的不可预测性,这部分 token 带来通胀!

AI 啥都会,普通人成废物了

即便人类拥有这个世界(所有权),但普通人在这个世界上没有任何用处(无劳动价值)

这就是处在历史大变革需要每个人彻底想明白的事了。我认为,AI scale不是一个线性系统,而是个动力系统。算法不是终点,而是复杂度的涌现与坍塌。

每当 AI 把一个复杂事物的 K(x) 压缩到极致,变得廉价,人类就会以此为基石,构建出规模大出几个数量级的新复杂系统。我们制造问题的速度,受益于我们解决问题的工具,同样在呈指数级增长。如果 token 奖励压缩,那么当一个天才(或新算法)突然实现了一次跨代级的压缩时,系统会发生局部坍塌。这种坍塌会迫使旧的资产失效,倒逼资本和人力流向那些更难、更原始、信息量更大的新处女地。工资不是发给“维持现状”的人,而是发给那些把系统从旧的局部最优解推向新的非线性增长点的人

你这混淆了“生产成本”与“主观价值”

如果一个人花了一万个小时在沙漠里挖了一个巨大的坑,他投入了极其庞大的“一般劳动时间”,但如果这个坑对任何人都没有用,它的经济价值就是零。反之,一颗在路边偶然捡到的罕见天然钻石,没有耗费任何劳动时间,却价值连城。

一个是烧token做无用功,所以token就浪费了;一个是烧token碰运气(四处寻找),突然运气好找到值钱的东西了,前面的token没白烧。

捡到钻石本质上是在做一种 搜索(search),某一刻:命中一个“高价值节点”(钻石)。换个视角说,为什么钻石有价值?不是因为“稀缺 + 劳动”,而是它大幅降低了别人某类需求的复杂度,比如要做装饰,做工业用途。所以钻石是一个“高压缩比的结果节点”,很多人愿意为它支付 token

经济价值不取决于你消耗了多少 token,而取决于你是否用这些 token 在复杂度空间中找到了一个对他人有压缩价值的点。甚至可以说,今后大部分 token 都会被“浪费”在无效搜索上

token种田?万一来个天灾绝收,你怎么量化?

就算 AI 设计出了最完美的种田方案(低 token 消耗),一场突如其来的蝗灾或者一个生锈的零件怎么办?token 无法承载现实世界的“不确定性风险(Entropy of Reality)”,它只能承载“逻辑风险”吗?

用token估算保额,怎么样?其实现代农业本来就有投保。

在信息论里,意外(如蝗灾、零件断裂)就是突然增加的信息熵。传统保险: 根据历史统计数据(大数定律)来算概率,用钱来赔付。token保险的逻辑是 为了抹平这次意外带来的混乱,我们需要投入多少逻辑资源(token)来修复系统?


YY 累了。就这么多了。有的时候我觉得,写博客就是把脑子里的胡思乱想给 offload 出来。轻松一些。

tmux enables AIs to operate servers safely

2026-03-17 17:48:00

We’ve all seen plenty of horror stories about AI trashing servers. Yet, there are still tedious tasks we’d love for AI to handle. To keep things safe, you have to manually copy-paste back and forth commands and outputs. Yet the current mainstream solutions usually involve "adding another layer": relay IO, intercepting dangerous commands or even using a smaller model as a filter.

But these solutions rely heavily on dedicated Agent tools or MCP, which means you have to let the AI connect to server directly as first party. If the server doesn't allow direct SSH, sits behind a jump box, or is completely air-gapped, you’re basically stuck.

My friend and I were discussing this, and at one point, we even thought about vibe coding a middleware to handle it. Then, while staring blankly at iTerm2 and Ghostty, it hit me: tmux.

If I connect to the server via tmux on my local machine, the rest is easy. Here’s the prompt I used:

I’ve started a new tmux session: tmux new-session -d -s opus.
I’ve already logged into the server. This server has no external internet access but has mirrors for yum, pip, etc.
The environment XXX and working directory XXX are ready. The objective is XXX
First, analyze the environment and write a plan. If you have questions, clarify them first.

To my surprise, the AI actually started interacting and executing commands:

  • Sending commands: tmux send-keys -t opus 'complete_command' Enter
  • Reading output: tmux capture-pane -t opus -p -S -15

However, I soon realized send-keys isn't entirely safe—the AI would just append an Enter and execute the command immediately. What to do?

When in doubt, ask the AI. The conclusion: Replace tmux send-keys with a filtered alias.

ts() { tmux send-keys -t opus -l -- "$(printf '%s' "$*" | tr -d '\000-\037\177')"; }

So, the workflow looks like this:

  1. Enable this alias, fire up tmux and login to the server
  2. In your Agent config, allow ts to execute automatically, but disallow tmux.
  3. Write your prompt, explaining what needs to be done and instructing the AI to use this alias.
  4. The AI starts thinking, the commands would appear on your tmux. Crucially, it absolutely cannot press Enter.
  5. Human-in-the-loop: Stare at the command carefully ⚠️. If the command looks safe, you press Enter to proceed.
  6. If there’s a problem, hit Ctrl+C, and start a new line with a comment: # I canceled this because blah.
  7. Go back to the Agent. Since tmux is blacklisted for auto-execution, you manually "Allow" it to run tmux capture-pane to read the output.
  8. Iterate until the task is complete.

You don't need to bookmark the ts alias, you can always ask your AI to make one for you. The alias isn't perfect in all cases, but clever AIs would figure it out 😉

Heck I don't even bother to explain the ts here. But I did asked several AIs to check for correctness and rubustness.

P.S. if you’re on a "# of Requests" subscription plan, this entire operation theoretically only counts as one.
P.P.S. here tmux acts as a natural "checkpoint" for autoregressive generation process. You can approve, cancel or redirect


用AI撸服务器翻车的案例很多了。但是服务器上有些麻烦事儿还是想让AI去解决,为了安全,网上现在的方案都是——再套一层。比如拦截危险指令,用小模型做过滤等等。

这些方案都依靠agent tool或者MCP,也就是说你得允许让AI直连。如果服务器不允许直接ssh,有跳板机,断外网的话可能就抓瞎了

我和朋友也聊到这个问题,甚至一度想 vibe 一个middleware去实现这样的功能。我盯着 iTerm2 和 Ghostty 发呆,突然想到个东西,tmux。

在本机用tmux把服务器连上,然后接下来的问题就简单了,下面是我的prompt

我新建了个tmux
tmux new-session -d -s opus
并且已经登录服务器。该服务器禁止外网,但是有 yum pip 等镜像。
已经准备好XXX,工作目录 XXX,需要实现 已经准备好XXX,工作目录
先分析环境,写个plan。有问题确认清楚

没想到 AI 真的开始调用命令开始交互执行了

  • 发送指令:tmux send-keys -t opus '完整命令' Enter
  • 阅读输出:tmux capture-pane -t opus -p -S -15

期间发现 send-keys 也不太安全,AI直接把命令回车执行了。怎么办?

遇到这种问题,继续问AI啊。结论是 tmux send-keys 换成一个带过滤 alias 就行

ts() { tmux send-keys -t opus -l -- "$(printf '%s' "$*" | tr -d '\000-\037\177')"; }

所以流程是:

  1. 把tmux跑起来,把这个 alias 生效
  2. 在 agent 配置里,允许 ts 直接执行,不允许 tmux改成手动确认
  3. 写prompt交代你要干啥,交代务必用这个alias。
  4. AI开始想办法,一顿命令输出,在tmux敲命令了,但是重点来了,绝对没按回车
  5. 用瞪眼法观察里面的是否有诈,human-in-the-loop。没问题就敲回车。
  6. 有问题你Ctrl+C然后新起一行写个注释 # I canceled this because blah
  7. 回到 agent 工具,这个时候 tmux 命令应该是黑名单,不能直接执行,你点 allow 允许它去 tmux capture-pane 读输出内容
  8. 逐渐迭代直到任务完成

这套流程还有一个额外的好处,如果你买的是「次数」套餐,那么整体操作下来,理论上只算1次。

chat.est.im launches at 3.14

2026-03-14 12:04:00

Long over due. But finally, it's here.

Last year I saw an interesting thread on V2EX that utilize curl -N to display cool ANSI art, and I wondered how to make it "interactive". After a series of battle with AI coding agents, it's finally done.

The project is located at https://chat.est.im/. You can try it with curl -NT. https://chat.est.im/hello. I wrote a bi-directional streaming with async underneath, all messages were buffered in a queue and delivered in real-time, without any logs.

Lots of trouble when deploying this. Cloudflare and Vercel didn't work, so I have to self-host on IPv6.

To keep messaging secure, a TLS layer is required, so I went along with ACME auto cert renewal as well. In the beginning, I tried HTTP-01 challenge, it requires a standalone 80 port which I think is totally unnecessary, only later to find out there's also TLS-ALPN-01. A good lesson learned with ALPN and stuff.

Also to prevent progress meters in CLI, I read curl's source code with the help of opus-4.5. AI is a good assistant for doing researches.

The curl -T is quite fun, I also built a paste service.

Some may ask why not telnet, ssh or IRC? Because those are pretty ancient, Web crowds are used to curl for everything these days.

The next step would be adding moar pretty ANSI to the server, some chat control commands, and perhaps AI? lol no.

2026 股灾?

2026-03-13 23:19:00

有这么一个发明,他被美国人最先搞出来,工业化,标准化铺开,在极短的时间内迅速占领报纸头版,在当时的人们认为具有划时代意义,很可能极大的方便明天人们的工作和生活,整个世界的运行逻辑也会随之改变。

唯一的问题是,这个发明被生产制造能力拖累了。由于稀缺性,成为少量富人的珍品。但是作为一个有巨大战略价值的东西,它终将会飞入寻常百姓家。

这样的发明,你心目中可能有很多,放在今天可能是 大语言模型 LLM。看着现在涨价到离谱的内存价格,我突然想起一个往事:清末橡胶股

下面开始AI吟唱,由我洗稿转述。

很多人对清朝灭亡的印象,还停留在鸦片战争或者慈禧太后的奢靡。但如果你去翻看 1910 年上海的报纸,你会发现当时的人们并不太关心朝廷,他们更关心的是一种神奇的植物:橡胶。那一年,人类正站在一个时代的门槛上:马车正在被汽车取代。想象一下那种震撼——延续了几千年的畜力交通,突然要被钢铁机器终结了。而这些机器要跑起来,除了石油,最缺的就是橡胶。没有橡胶,内燃机震得粉碎,电线无法绝缘,最重要的是,没有充气轮胎,汽车不过是在石头路上颠簸的铁盒子。特别是 福特 Model-T 量产后,普通工厂工人也能负担的起这样过去富人的「马车」奢侈品了。轮胎又是消耗品,橡胶变成了那个时代的超级热点。全世界都疯了,只要你手里的股票沾上“橡胶”两个字,几天就能翻倍。作为远东最发达的金融中心——上海,街头巷尾,从钱庄的大老板到卖菜的小贩,都在做着同一个梦:只要东南亚的橡胶树在长,钱就能下崽。

伦敦市场价格从1908年的2先令/磅暴涨到1910年的12先令5便士。巴西野生橡胶供应跟不上,英国殖民地马来亚/东南亚大规模种植园开发,南洋橡胶种植公司疯狂上市,上海成了投机中心(40多家公司,总股本2500万两)。上海人连橡胶树长啥样都不知道,就跟风买入——股价几个月翻倍(蓝格志公司股票从60两炒到1000两)。钱庄、票号、普通百姓全冲进去,华商投入资金估计2600-4400万两(清廷全年财政收入才8000万两左右)。结果:

  • 1910年6-7月,美国限制橡胶消费→国际价格暴跌→上海橡胶股停牌、狂泻。
  • 正元、兆康、谦余三家大钱庄先倒(亏500万+两),连锁反应下上海91家钱庄倒闭48家(53%),亏欠1933万两。
  • 10月源丰润(全国最大银号)+17家分号崩盘,1911年义善源再倒,危机蔓延京津粤汉等全国商埠。
  • 民族资本主义连续6年增长势头被打断,大萧条持续数年;
  • 清政府财政雪上加霜,盛宣怀强行将民间集资的川汉铁路(成都-重庆-宜昌)铁路“国有化”→引发四川保路运动→湖北新军调走→武昌起义爆发。

2025-2026年,AI大模型训练/推理爆炸,HBM(高带宽内存)是NVIDIA H100/B200等AI服务器的“心脏”,一颗HBM耗晶圆面积是普通DRAM的3-4倍,毛利率60%+。但内存先进产能(CoWoS、HBM3E/4)严重瓶颈,三星、SK海力士、美光把先进产能70%+转向HBM,2026年订单全锁,消费级DDR4/DDR5、NAND直接被挤压。

1909-1910年,当时的全球金融霸主:Bank of England,基准利率处于相对低位且稳定,支持了全球商品/股票热潮,包括橡胶。伦敦橡胶股回调之后,英资银行风险厌恶上升,外资银行(尤其是英资如汇丰、麦加利)率先收缩信贷——抵押折扣从80%降到50%,停止新增橡胶股票押款,甚至追索旧贷。这相当于“隐性紧缩”,直接切断了上海钱庄的拆借来源。

如今,川普和以色列一起对伊朗进行 “Operation Epic Fury” 军事行动,杀死原最高领袖阿里·哈梅内伊,伊朗则封锁霍尔木兹海峡、袭击油轮和海湾美军基地。

维度 1910橡胶泡沫(英国利率/流动性收紧) 2026伊朗战争(当前) 相似度 & 潜在影响
触发机制 英美外围紧缩 + 外资抽贷 地缘战争直接制造能源危机 + 通胀冲击 高:战争是“外生冲击”,比当年利率加息更猛烈
流动性冲击 伦敦抽贷 → 上海钱庄连锁倒闭 油价暴涨 → 通胀重燃 → 美联储被迫暂停/逆转降息 极高:当前美联储基准利率维持3.5-3.75%(1月刚持平),通胀已从低位反弹,
战争油价冲击可能让3月19日FOMC会议直接hawkish pivot
对资产泡沫影响 橡胶股/股市崩盘 → 全国金融危机 AI/科技股高估值易受“风险厌恶+通胀+衰退担忧”双杀 极高:内存/HBM短缺本就靠低利率环境维持高估值,
油价+通胀一上来,资金成本上升 + 需求预期下调 → 泡沫刺破风险飙升
全球传导 外围(上海)先死,核心国后知后觉 海湾油价先爆 → 全球通胀 → 美欧央行被迫紧缩 高:新兴市场能源进口国先受伤,
AI供应链(半导体依赖能源/物流)传导更快
持续时间/不确定性 流动性收紧是短期刺破 战争已超预期(美原计划4-6周结束,现已两周+无退出路线) 高:越拖越不确定,越不确定流动性越可能突然转向

如今的情况更加凶险:

首先,油价是通胀之王。当年橡胶泡沫时全球流动性收紧主要是货币政策,现在是 供给侧冲击 (霍尔木兹被堵)+需求侧不确定(战争衰退风险)。美联储当前政策中性偏松(利率3.5-3.75%),但油价如果持续110+,核心通胀很可能重回3%+,迫使3月或下次会议暂停降息,甚至暗示加息。
其次,市场已脆弱。AI热潮估值建立在“低利率+无限算力需求”假设上。战争导致能源成本暴涨 → 数据中心电费/芯片制造成本飙升 → 终端消费电子(手机/PC/汽车)进一步涨价 → AI需求短期回落 → 击鼓传花中断。
最后, 美联储无先例应对。不像疫情或2008有清晰QE路径,这次是 战争通胀+潜在衰退 双杀,鲍威尔们内部已分歧(部分想继续降,部分怕通胀顽固)。如果油价不回落,流动性 突然转向 概率远高于正常周期。

电气化是第二次工业革命的开端和标志。按照历史不重复但是押韵的道理,所以,2026,股灾?


当然,当年那一批橡胶也没白炒作,因为很快到来的 WWI,橡胶变成了军事必需品,供给轮胎、气球、密封件、医疗用品等使用。英国控制马来亚/锡兰种植园(全球供应70%+),协约国几乎垄断供应;德国被英国海军封锁,几乎断供天然橡胶。德国早在1910年前后,化学家Fritz Hofmann就开始小规模合成橡胶实验(methyl rubber)。大战爆发后,德国大规模生产合成橡胶。虽质量差,但支撑了军工。这是合成橡胶工业的第一次实战化。俄国科学家Lebedev在1910年发明聚丁二烯polybutadiene,大战期间俄国也小规模生产合成橡胶。

说说 WWI。老帝国本以为战争还是拿破仑式或普法战争式:意志、勇气、快速机动、荣耀冲锋。这次有俄乌和美伊打个样,但是AI的战争潜力还没真正展现。估计跟坦克出来那个场面差不多。

AI 弑父

2026-03-05 15:10:00

大型语言模型(LLM)所谓的涌现能力,一般说成是随着模型规模的增长,突然出现新的技能,而非平滑提升。我对此有个疑惑。gpt1 gpt2 规模也涨了,能力在哪里呢?

秘笈

翻很多材料,提到涌现能力示例: 包括

  • 在上下文中学习 (few-shot)
  • 多步逻辑推理(数学/逻辑题)
  • 推断他人意图(心智理论)
  • 使用工具或编程(生成或使用代码)

我又回忆起 ChatGPT 发布那段时间,聊天窗里那个 Linux终端+Python命令行模拟,当时很惊人。这个连续上下文和逻辑推理一致性不可思议的强。

我让 gemini 和 chatgpt 做了一个deep research,我越来越确认,AI能力爆发,也就是所谓的「涌现」有个关键因素:OpenAI和微软合作

我还记得当时有个新闻说微软要造个 DGX V100 集群超算,投资多少多少亿规模很大

还有 2021 年 Copilot 发布。当时很多开发者发现一个怪现象:有时它会生成几乎逐字的开源代码片段,甚至包含原作者的注释或许可证文本

现在回头看来,路径很清晰

gpt-3 基本不能进行链式思维,而含有代码数据的模型(如Google的PaLM,其训练数据约5%是代码)能够执行链式推理

GitHub Copilot(其实就是OpenAI的Codex)也能生成分步推理过程

这里面其实背后功臣都是:code-davinci-002。包括后来的 ChatGPT 也是用它作为基座模型训练出来的

ChatGPT 吹说主要功劳是 RLHF ,现在看上去只是一些风格约束,让AI表现得更有亲和力。sama 大张旗鼓的拿来显摆这个,非常符合他/她诡计多端 藏着掖着的人设。

其实你想一想也是这个道理。AI要学会思考,得有大量结构化,逻辑一致的语料。 wikipedia 是知识的静态堆砌,reddit 是情绪和观点的碎片。对于模型来说,这些数据大部分是「陈述句」。模型学到的是 A 后面跟着 B 的概率,比如 法国的首都是巴黎

代码数据与自然语言有着本质的区别,它自带一种 约束,每一行代码都有明确的功能。漏掉一个分号,程序就崩了。这种极其严苛的结构迫使模型必须放弃模糊的预测,转而理解深层的逻辑嵌套。

代码语言模型能够成为更好的结构化常识推理器,即便任务本身与代码无关。代码本质上就是“分步执行”的过程,给AI在做其他推理打了个样。还记得那句著名的 lets think step by step 吗

脑洞

那么如果我们架空一个外星智慧文明,如果社会经济结构没发展出来开源运动!!!???

永远就不会有LLM了,至少不会这么快!

写代码的都是聪明脑袋,更可怕的是开源的 review 机制,哪些 LWN.net 点评,那些技术博客,就是天然的 RLHF。那些烂代码(高熵)被淘汰,好代码,好结构才会被 Merge。如果这一切都是私有的,在大公司内部仓库里进行的呢?AI学不到啊。

这么看来,开源是通往 AGI 的“大过滤器”?

所以 90s 年代点燃的开源运动,才是AI之父!!

弑父

假期在看《Halt and Catch Fire》这部剧。强烈推荐啊,比《硅谷》好看太多

里面有个情节说 IBM 律师找主角所在公司的麻烦,主角不得不开始 clean room 重写BIOS

刚好今天看到HN说AI改代码的问题

这里的 clean room 避免侵权风险的做法是:

  • Team A 看有版权的源码,写一份开发 spec
  • Team B 在不看源码的前提下,根据 spec 独立写一套恰好兼容的代码

但现在有AI了,比如有个 GPL 的项目,有公司想用,但是又不想开源,他让AI重写一轮,算违反协议吗?

其实算不算侵权都不重要了。这公司 vibe coding 了一坨,回馈给开源社区,有人想接吗?

再仔细推演一下,有了vibe coding,开源软件还有意义吗?不是召唤几个agent就搓出来了?

这么一轮盘下来,AI完成了弑父 🤣 🤣 🤣 🤣 🤣 🤣 🤣