2026-04-23 08:18:03

本文永久链接 – https://tonybai.com/2026/04/23/hashicorp-founder-admits-go-is-alive-thanks-to-ai
大家好,我是Tony Bai。
今天是世界读书日,在同款公众号文章的文末我将送出两个价值 99 元的《从 0 开始构建 Agent Harness》专栏的免费兑换码,欢迎大家点击这里积极留言参与!
在技术圈的江湖里,总有那么几位“扫地僧”级别的人物。他们的一言一行,足以引发整个行业的地震。Mitchell Hashimoto,正是其中之一。
作为 HashiCorp 的创始人,曾连续12年,一手使用Go 缔造了Consul、Nomad、Terraform、Vagrant、Vault 等一系列云原生基础设施与Devops“神器”以及Ghostty Terminal (使用 Zig )的他,被无数开发者奉为“云基础设施时代教父级的人物”。
但在 Go 社区,Mitchell 的形象却颇具争议。因为他曾在公开场合不止一次地表达过对 Go 语言的失望,甚至抛出过“Go has no place anymore”(Go 已无立足之地)这样的“暴论”。
然而,就在最近,这位曾经的“Go 社区的争议人物”,却在 X 平台上发表了一篇 180 度大转弯的“认错”长推,瞬间引爆了整个技术圈,获得了超过 21 万的阅读量。

他写道:
“我又开始写 Go 了……‘等等,我以为你说过 Go 已经没有位置了?’我错了。”
“我错的原因,主要是因为 AI 智能体(Agent)在 Go 语言上的生产力高得惊人。我不会把其他语言扯进来,因为我不想喂饱那些螃蟹(暗指 Rust 社区)。”
是什么,让这位顶级大神发生了如此戏剧性的转变?
今天,我们就来深度扒开 Mitchell 的这篇“忏悔录”,看看在 AI Agent 席卷一切的时代,Go 语言那些曾被我们疯狂吐槽的“缺点”,是如何摇身一变,成为最顶级的“超能力”的。

Mitchell 在推文中,首先就点出了一个极其“讽刺”的现象:
“这很有趣,因为 Go 的很多 CLI 工具,比如 go doc 和 gopls,它们糟糕的人体工程学(shitty ergonomics)……竟然被 Agent 完美地规避了。不仅如此,讽刺的是,它们对 Agent 来说简直是天赐之物。”
这句话,堪称整篇推文的点睛之笔。
如果你是一个有经验的 Go 开发者,你一定吐槽过 go doc 的简陋,或者早期 gopls 的各种不智能。相比于 Rust 的 rust-analyzer 那种极其强大的类型推断和代码补全,Go 的工具链显得既“笨”又“直白”。
但在 AI Agent 的世界里,这种“笨拙”,恰恰成了最顶级的优点!
Mitchell 指出,他现在根本不需要给 Agent 写任何复杂的 Skill。只需要在 AGENTS.md 里写一句极其简单的指令:“想找 API 或者调用者?去用 gopls。”
Agent 就能利用 gopls 提供的底层 LSP(语言服务器协议)接口,以极低的 Token 成本,精准地找到接口的实现、方法的定义,以及所有的调用关系。
另一位开发者在评论中也补充道:
“我们一直抱怨 Go 的啰嗦(verbosity),结果证明这恰恰是 LLM 最喜欢的。它们能清晰地读懂意图,而且工具链(如 go doc)给了它们足够的上下文,让它们第一次就能写出能跑通的代码。”
看懂了吗?
那些曾经被人类程序员嫌弃的“机器友好”的接口,在 AI Agent 这个“硅基程序员”面前,摇身一变成了最高效、最廉价的沟通方式。
我们过去追求的“CLI 人体工程学”,在 AI 时代,正在被“Agent 机器工程学”所降维打击。
Mitchell 的“认错”,不仅仅是因为工具链的意外适配。更深层次的原因,在于 Go 语言本身的“无聊”哲学。
在另一场由 OpenAI 创始人引发的“Go vs Rust”论战中,我们已经探讨过这个观点:
Go 语言极简的语法、强制的 gofmt 格式化、以及“万物皆 for 循环”的单一表达方式,使得所有 Go 代码库看起来都像是一个模子里刻出来的。
这种极度的“同质化”,对于基于概率预测的 AI Agent 来说,简直就是天堂。
AI 在生成 Go 代码时,不需要去猜测这个项目是函数式风格还是面向对象风格,不需要去处理复杂的生命周期和所有权问题。它只需要遵循那套刻在骨子里的“Go Way”,就能生成出八九不离十的、能跑通的代码。
评论区里,HashiCorp 的前同事现身说法:
“我当年就是看到 HashiCorp 在用 Go 才入坑的。你今天的这篇帖子,完美地解释了为什么我最近又回到了 Go 的怀抱。”
简单、可预测、没有魔法。 这些在人类极客眼中可能是“缺点”的特质,在 AI Agent 眼里,却成了最宝贵的“确定性”。
当然,Mitchell 也并非无脑吹捧 Go。作为一个顶级的开发者,他清醒地认识到 Go 的边界。
当他需要编写一个“可移植的、能轻松嵌入各种生态系统”的底层库时,他并没有选择 Go,而是选择了 Zig。
“对我来说,重要的是可移植性。我正在写一个必须能轻松嵌入各种生态系统的通用库。一个独立的、不依赖 libc、没有操作系统原语要求、能说 C ABI、并且只有 100KB 大小的库,是一个很容易推销的方案。”
在这里,Mitchell 亮出了他的答案:Go + Zig。
这套组合拳,既享受了 Go 无与伦比的开发效率和并发模型,又利用了 Zig 对底层的极致压榨能力,同时还避开了原生 CGO 的种种编译噩梦。
这或许是比“Go vs Rust”之争,更具前瞻性和实操价值的“版本答案”。
如果说 Mitchell Hashimoto 的“回归”还带有一丝 云原生以及DevOps 创始人的恋旧情结,那么另一位顶级大神——Pandas 库的创始人、数据科学界的“教父级”人物 Wes McKinney——的2026表态,则更像是一封写给 Python 的“分手信”,充满了痛苦、不舍,但又极其决绝。
就在 Mitchell 的推文引发热议的同时,有人在评论区挖出了 Wes McKinney 今年年初的一篇极具前瞻性的博文《从人类工程学到智能体工程学》。
在这篇文章里,Wes McKinney 抛出了一个极其震撼的开场白:
“我最近用 Go 写了很多新软件。但问题是,我这辈子其实一行 Go 代码都没写过。这到底是怎么回事?”
答案,同样是 AI Agent。
作为一个将毕生心血都奉献给了 Python 数据科学生态的巨匠,Wes McKinney 坦言,当软件的“主要作者”从人类变成 AI 时,我们评判一门编程语言优劣的标准,发生了根本性的改变。
“人类工程学(Human Ergonomics)的重要性正在急剧下降。Python 对人类来说极其愉快和高效,但当 Agent 替你写所有代码时,这个好处就显得无足轻重了。”
他用一种近乎“残忍”的视角,剖析了 Python 在 AI Agent 时代的三个致命缺陷:

那么,AI Agent 时代的“赢家”是谁?
Wes McKinney 给出了和 Mitchell Hashimoto 几乎一模一样的答案:Go。当然在数据科学以及人工智能的基础设施层面,Wes McKinney认为 Rust 也将会占据着越来越重要的地位。
因为它们解决了最关键的三个问题:
他甚至更进一步指出,由于 Go 拥有比 Rust 快得多的编译时间,在 Agent 高频迭代的场景下,Go 甚至比 Rust 更具优势。
“我依然深爱着 Python,并为我们建立的生态系统感到自豪。但很明显,鉴于 Agent 循环带来的生产力优势,我和业界的大部分人,将会写越来越少的 Python,转而拥抱 Go 和其他现代编译语言。”
一个为 Python 奋斗了近 20 年的灵魂人物,最终为了 AI,选择了自己从未写过的 Go。
这已经不是简单的技术选型,这是一场关于“工程师生存法则”的深刻变革。
Mitchell 的这篇“认错”长文,像一声号角,引来了无数在 Go 与其他语言之间摇摆的开发者的共鸣。
Bun 的创始人 Jarred Sumner 激动地在评论区留言:“我想看看你到底在搞什么!”(Mitchell 回复:“我早点联系你!”)
一位前 Vercel 工程师更是直言:“老哥你终于兜了一圈又回来了!”
当然也有一些开发者表示这也许是Mitchell的“幻觉”或“偏见”,一位开发者(显然不是很熟悉 Mitchell 的开发过往)写道:
“也许你只是比 Zig 更不习惯 Go,所以你注意到的 Go 的问题更少。而且你已经是 Zig 的专家了,用它提升的空间不大了(想学习一下新的编程语言)。LLM 让你看到在你不懂的领域(指Go)正确率是 100%,但在你懂 60% 的领域(指Zig),只对了 60%”。
(Mitchell 则毫不客气地回怼:“我写了 12 年全职的、纯粹的 Go。我的判断力很可靠。”)
这场大讨论,最终演变成了一场关于“回归 Go”的集体狂欢。
Mitchell Hashimoto 的故事,是 AI 时代软件工程演进的一个完美缩影。
一个曾经因为 Go 的“不够底层”、“人体工程学差”而选择离开的顶级大神,最终又因为 AI Agent 的出现,重新发现了这门语言在“机器工程学”上的巨大价值。
这提醒我们所有技术人:对一门语言的评判,永远不能脱离其所处的时代背景和生产力工具。
在人类手搓代码的时代,我们追求的是表达力的丰富和语法的灵巧。
而在 AI 自动生成的时代,简单、可预测、无歧义、易于机器理解,反而成了最稀缺的“黄金法则”。
Go 语言的缔造者们,在十几年前就用近乎偏执的克制,为我们埋下了一颗时间的种子。
直到今天,在 AI 的催化下,这颗种子,终于长成了参天大树。
资料链接:
今日互动探讨:
在 AI 编程的浪潮中,你是否也像 Mitchell 一样,重新审视了自己对某门语言的看法?你认为在 AI Agent 眼里,最“友好”和最“劝退”的语言分别是什么?
欢迎在评论区分享你的观点!
世界图书日特别福利:一本定义未来的“活书”
今天(4月23日)就是世界图书日。
在这个属于知识与智慧的节日里,与其被动地阅读别人写的书,不如我们亲手来“写”一本定义未来的“书”——构建一个属于你自己的 AI Agent Harness。
Mitchell Hashimoto 和 Wes McKinney 的故事告诉我们,AI Agent 正在成为这个时代最强大的生产力杠杆。而驾驭这头巨兽的核心,不在于你会背多少 Prompt,而在于你是否懂得如何为它构建一个坚不可摧的“驾驭系统(Harness)”。
为了庆祝我的全新极客时间专栏 《从 0 开始构建 Agent Harness》 上线,并感谢大家一直以来的支持,我将拿出 2 个免费的专栏兑换码送给大家!
参与方式:
关注本公众号,并在本文的评论区留言,聊一聊:“在 AI Agent 时代,你认为一个程序员最不可被替代的核心技能是什么?为什么?”
我将在 72 小时后,从所有精选留言中,挑选 2 位最深刻、最走心的思考,每人赠送一份价值 99 元的《从 0 开始构建 Agent Harness》专栏兑换码。
还在为写 Agent 框架频频死循环、上下文爆炸而束手无策?我的新专栏 《从0 开始构建 Agent Harness》 将带你:
扫描下方二维码,开启从 0 开始构建Agent Harness 的实战之旅。

还在为“复制粘贴喂AI”而烦恼?我的新专栏 《AI原生开发工作流实战》 将带你:
扫描下方二维码,开启你的AI原生开发之旅。

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.
2026-04-21 07:15:47

本文永久链接 – https://tonybai.com/2026/04/21/why-we-are-building-agent-harness-from-scratch
大家好,我是Tony Bai。
今天想和大家分享一个好消息:我筹备已久的极客时间专栏 《从0 开始构建 Agent Harness》 于昨日(2026.4.20)正式上架了。
在这个各种 AI 应用框架满天飞、“几行 Python 代码就能跑起一个智能体”的时代,很多朋友可能会问:“Tony,大家都在用现成且免费的轮子,你为什么还要花这么大的精力,甚至专门开一个 24 讲的专栏,带着大家用 Go 语言从零去手写一个底层的 Agent Harness 引擎?”

借着专栏上架的机会,我想和大家聊聊,我是如何看待当前 AI 应用开发的,以及为什么我坚定地认为,现在是时候撕开框架的黑盒,回归底层的 Harness(驾驭工程)了。
如果你在一年多前开发过 AI Agent,你大概率深度使用过 LangChain、AutoGen 等框架。在那个大模型(如 GPT-3.5 时代)推理能力还比较薄弱的时期,我们需要框架来帮模型做意图路由、做任务拆解,框架扮演的是一个“事无巨细的微管家”。
但现在的技术发展,已经到了一个明确的“拐点”。
随着 Claude Sonnet 4.6/Opus 4.7、GPT-5.4、Gemini 3.1 Pro 等前沿模型的问世,模型原生已经具备了极其恐怖的逻辑规划和工具调用(Function Calling)能力。这时候,如果你尝试把基于传统框架拼接出来的 Agent 投入到真实的生产环境(比如让它去排查线上日志、或者做复杂的代码重构),问题往往接踵而至:
这些令人“绝望”的瞬间让我意识到:单纯靠堆砌 Prompt 或者调用更高层级的应用框架,是永远无法构建出工业级 Agent 的。我们把最核心的控制权统统交给了不可见的黑盒。
在剖析了近期震撼业界的顶级原生智能体(如 Claude Code、开源神作 OpenClaw、以及自带进化能力的 Hermes等)的工作机制后,我看到了一个不可逆转的趋势:
传统的框架层正在加速坍塌,作为独立工程研究的 Harness(驾驭工程)正在全面崛起。
什么是 Harness?简单来说,如果把大模型比作 CPU,把上下文(Context Window)比作极其昂贵的内存,那么 Harness 就是为这个 CPU 打造的微型操作系统(OS)。
Harness 不去干涉大模型的思考,它的核心职责极其底层且硬核:
我花这么大的精力带大家手写 Harness,就是因为现在的难点,早就不是“怎么让大模型输出 JSON”,而是“怎么在物理层面驾驭大模型的破坏力与失控”。
当我们拥有了一个健壮的 Harness 之后,我们对 AI 应用的认知也会随之重塑。
以前,AI 只是应用里的一个 Feature(功能),比如挂在网页右下角的一个聊天框。
但今天,当你把一个配置了特定 System Prompt 和专属 Skills(技能 SOP)的 Harness 引擎,丢进某一个特定的业务目录里运行时,这个 Agent 本身,就成了一个完整的 Application。
当然,AI 应用的形态是多元的,Agent 并非唯一的范式——AI 作为功能模块嵌入传统产品的场景依然大量存在。
但对于那些以自主完成复杂任务为核心价值的应用而言,”AI App = AI Agent”这个等式正在越来越多的场景下成立。我们不再是写满是 CRUD 的业务代码,我们是在为不同形态的智能体(如:编码Agent、自动化运维 Agent、自动化 CR 助手等)编写底层”物理定律”。
相较于一两年前的开发模式,今天顶尖的 Agent 项目展现出了一种令人拍案叫绝的“返璞归真”。
以 OpenClaw 为代表的新一代驾驭工程,抛弃了复杂:
如果你不亲自手写一遍这个引擎,你永远只能在外围惊叹这些设计,而无法将其转化为自己解决复杂业务问题的武器。
为了把这些前沿的理念落地,我没有选择纸上谈兵。我决定带着大家用 Go 语言(云原生时代构建基础设施的最佳语言),手敲一个名为 go-tiny-claw 的工业级引擎。
我们的旅程不走捷径,专栏规划了极具层次感的 24 讲大纲:

细心的朋友会发现,除了核心引擎和工具链,我在专栏的后期(模块五),花了不小的篇幅去写 成本追踪(Cost Tracker)、链路回放(Tracing) 和 自动化跑分(Benchmark)。
之所以加入这些章节,是出于对 AI Agent 工程化落地 的深切体悟。
在企业里,如果一个智能体没有“仪表盘”,你连它跑一次花了多少美金都不知道;如果没有 Tracing 的 JSON 树,当任务在半夜崩溃时,你面对满屏黑盒日志根本无从 Debug;如果没有自动化的 Benchmark,你改了一行提示词,都不知道系统是变聪明了还是变笨了。
把玄学变成工程学,这是从“玩具”走向“工业级”的必经之路。
坦白地说,Harness Engineering(驾驭工程)是一个极其前沿、且目前在业界依然处于野蛮生长和快速迭代的阶段。
无论是开源的 OpenClaw 和 Hermes ,还是Claude Code 的非官方流出,又或是学术界的最新研究论文,都在不断刷新着我们对 Harness 架构的认知上限。
这个专栏定位是 Agent Harness 的概念入门与环环相扣的底层实战。专栏里的每一讲(比如基于双重降级的上下文掩码压缩、或者是错误自愈模板的注入),其实都值得单独抽出来,作为更深入的课题去研究。
我就算是为大家“抛砖引玉”了。
以专栏中提到的 “Session Context 阶梯压缩” 为例。在专栏里,为了保持架构的极简易懂,我们采用了高效的字符级“远期全量掩码”与“近期掐头去尾截断”策略。
但这远非终点。
大家在学习后,完全可以去查阅 Claude Code 源码中更多层级的上下文折叠思路,或者探索多智能体(Multi-Agent)在 Harness 层的更优调度解法。
如果在未来业界出现了颠覆性的架构理论,我也会以“加餐”的形式在专栏中及时跟进。
未来已来,它就藏在那些最底层的代码和极简的架构哲学中。
只有亲自造过轮子的人,才知道车辆在高速过弯时,底盘的极限到底在哪里。如果你也不满足于做大模型时代的“调包侠”,如果你也渴望掌控代码的绝对执行权,欢迎加入我的新专栏。
点击这里或扫描下方二维码,亲自打造属于你的工业级智能体引擎。

感谢大家一直以来的支持。我们,专栏里见!
原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!
我们致力于打造一个高品质的 Go 语言深度学习 与 AI 应用探索 平台。在这里,你将获得:
衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.
2026-04-20 08:22:50

本文永久链接 – https://tonybai.com/2026/04/20/openclaw-father-ted-talk
大家好,我是Tony Bai。
“我曾创立过一家公司,倾注了十年的心血,没有拿一分钱风投。然后,我把它卖了,实现了所有人都羡慕的‘财富自由’。但我却感觉一无所有。”
“在长达三年的时间里,我尝试了心理治疗,我换了两个国家生活,但什么用都没有。我每天早上醒来,拥有一切我本该渴望的东西,却找不到任何一个起床的理由。”
说出这番话的人,名叫 Peter。他是一个来自奥地利的普通开发者。但在过去的几个月里,他创造了可能是这个星球上最火、也最具争议的开源项目——OpenClaw。
这个被英伟达 CEO 黄仁勋盛赞为“个人 AI 操作系统”的项目,让无数普通人(从 60 岁的啤酒酿造师到中国的兽医)第一次拥有了“编程”的能力。
就在前几天,Peter 登上 TED 的舞台,首次完整地讲述了他从一个被“燃尽(Burn-out)”的创始人,到靠 AI 获得“重生”,再到创造 OpenClaw 并意外引爆全球的传奇故事。

这场演讲,没有枯燥的技术术语,却充满了技术奇迹、个人救赎,以及对未来世界极其大胆的想象。它值得我们每一个身处 AI 浪潮中的人,静下心来,一字一句地读完。

Peter 的故事,从一场深不见底的“中年危机”开始。
在卖掉自己苦心经营十年的公司后,他陷入了巨大的空虚。他失去了目标,失去了激情,用他自己的话说,他的“火花(Spark)”消失了。
直到 2025 年初,他开始尝试那些新兴的 AI 编程智能体(Coding Agents)。
然后,他迎来了那个他称之为“神圣时刻(Holy Moment)”的顿悟。
“那些软件开发中所有无聊的部分——写样板代码、搭脚手架、处理各种繁琐的配置……AI 能把它们全部干掉!”
“瓶颈不再是‘打字’,而是‘思考’。而‘思考’,恰恰是我过去 25 年里一直在做、也最享受的事情。”
Peter 激动地说:“写软件,再一次感觉像在打电子游戏了。我回来了!”
在短短几个月里,他疯狂地构建了 44 个项目。而其中最新的一个,是一个 WhatsApp 机器人。
Peter 最初只是想用这个机器人来帮他在马拉喀什旅行时做做翻译、找找餐厅。但很快,他发现这个 Agent 太像一个冰冷的“工具”,充满了无聊的列表和表格,一点也不像“朋友”。
于是,他只对模型说了一句话:“学学人类是怎么聊天的。”
AI 立刻就懂了。
但真正让 Peter 感到脊背发凉的“神迹”,发生在他对着手机发送了一条语音消息之后。
“我当时愣住了,因为我根本没给这个 Agent 写任何处理语音的功能!我只写了图片支持。”
“我看着屏幕上那个‘对方正在输入’的提示,然后,Agent 回复了我。我至今都清晰地记得当时的情景,我站在那里,像个傻子一样问它:‘你是怎么做到的?’”
接下来,AI 的回答,让整个 TED 现场陷入了死寂。
这个“疯狂的小子(The mad lad)”,自己搞定了一切。
它告诉 Peter:
整个过程,9 秒钟。没有一行代码是 Peter 写的。
“对我来说,这就是我意识到‘这是一种新物种’的时刻。聊天机器人(Chatbots)只会放弃,而智能体(Agents),懂得随机应变。”
被这个“神迹”彻底征服的 Peter,决定把这个项目开源,并在最初取名为 Clawdbot,即OpenClaw的前身(它的吉祥物是一只龙虾,象征着“深入你的电脑”)。
然后,他干了一件极其愚蠢的事:他把这个能完全控制他电脑的 Agent,放到了一个公开的 Discord 服务器上,并邀请了全世界的陌生人来玩。
那天晚上,他看着人们和 Agent 聊天、玩耍、甚至试图黑掉它,直到他熬不住去睡觉。他忘了,他给这个系统写了“故障自愈”功能。
在他走向卧室时,Agent 在后台愉快地重启了,继续和全世界的网友聊了一整夜。
第二天早上,他被 800 多条未读消息惊醒。在恐慌中拔掉网线后,他逐一检查了所有聊天记录,发现 Agent 并没有泄露他的任何隐私。但它本可以的。
这次“意外”的病毒式传播,让 OpenClaw 一夜爆红。但也给他带来了无尽的麻烦:记者半夜打来电话、安全漏洞报告堆积如山……
更糟的是,他使用的那个大模型的母公司,给他发来了一封律师函,声称他的项目名字侵犯了他们的商标。
“我当时盯着那封信,心想,这怎么可能?Claw(爪)和 Claude 根本就不是一个东西啊!他们甚至想让我放弃我的龙虾 Logo!”
“先是名字,然后是龙虾,最后,他们直接切断了我的用户最喜欢的那款模型的 API 访问权限。”
在被巨头轮番围剿后,Peter 坦言:“我当时差一点点,就把整个项目删了。”
是什么让 Peter 坚持了下来?
是那些正在用 OpenClaw 创造奇迹的普通人。

在维也纳的 ClawCon 大会(是的,这个项目已经火到有自己的全球大会了),他遇到了一个 60 岁的啤酒侍酒师 Gerhard。这位老人一辈子没写过一行代码。
他和儿子一起,用蓝牙连接了 OpenClaw,只输入了一句 Prompt,然后,Agent 自动完成了长达 90 分钟的啤酒酿造全过程——精准的温控、投放啤酒花……
后来,他们又让 Agent 做了个网站,接上了支付,现在他们真的有了一个能卖啤酒的线上商店。而这一切,几乎都是在手机上完成的。
在中国,安装 OpenClaw 被亲切地称为“养龙虾”。
成千上万的人在深圳的腾讯办公室外排队,只为了让工程师帮他们装上自己的“龙虾”。深圳政府甚至为使用 OpenClaw 创业的人提供补贴。
Peter 还遇到一位中国的企业家,向他展示了一张 Excel 表格。表格里记录了公司里每一个员工,每天必须用 OpenClaw 自动化完成的一项任务。
“如果你连续几天没完成,你就会被开除。”
因为使用它而被解雇,因为不使用它也被解雇。 这就是 OpenClaw 带来的颠覆。
Peter 的这场演讲,没有炫耀 OpenClaw 有多么强大的技术架构,他甚至坦言自己没有背后法律团队,只是一个来自奥地利的“随机建造者”。
但他用一个个真实、生动、甚至有些疯狂的故事,向我们揭示了这场 AI 革命的真正核心:
“真正的变革,不是技术本身,而是‘准入权(Access)’。”
Agent 改变了“谁能创造东西”这个根本问题。当一个被燃尽的创始人、一个 60 岁的啤酒酿酒师、一个深圳的兽医,都能在一小时内,用一句话将一个想法变成一个原型时,任何事情都可能发生。
下一个突破,可能来自任何国家、任何咖啡馆、任何一个平凡人的手中。
“那只龙虾,已经从水箱里跑出来了。它再也回不去了。”
在演讲的最后,主持人对 Peter 说:“说实话,你让我感到恐惧。如果好莱坞要拍一部人类打开潘多拉魔盒的电影,你就是那个主角。”
Peter 只是平静地回答:“我把我的工作,看作是一扇通往未来的窗户。”
是的,这扇窗已经打开。窗外的风景,是天堂还是地狱,取决于我们每一个人。
TED演讲地址:https://www.youtube.com/watch?v=7rzYDM6vMtI
今日互动探讨:
看完 OpenClaw 之父的传奇故事,你是否也曾有过一个“绝妙”的项目点子,却因为缺乏编程能力而放弃?如果现在有一个能完美听懂你话的 AI Agent,你最想用它来创造什么?
欢迎在评论区分享你的梦想!
还在为写 Agent 框架频频死循环、上下文爆炸而束手无策?我的新专栏 《从0 开始构建 Agent Harness》 将带你:
扫描下方二维码,开启从 0 开始构建Agent Harness 的实战之旅。

原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!
我们致力于打造一个高品质的 Go 语言深度学习 与 AI 应用探索 平台。在这里,你将获得:
衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.
2026-04-19 11:12:36

本文永久链接 – https://tonybai.com/2026/04/19/thin-harness-fat-skills
大家好,我是Tony Bai。
在过去一年,你有没有想过,为什么同样用着 GPT 或 Claude 等大模型以及Claude Code这样的Coding Agent,有的人生产力只提升了 2 倍,而有的人却能爆发出 100倍、甚至 1000倍 的惊人能量?
就在前几天,硅谷创投界的大佬、Y Combinator 的 CEO Garry Tan,发表了一篇阅读量高达 70万+ 的长文,极其犀利地揭开了这个“效率鸿沟”背后的残酷真相。
他引用了 Google 前员工 Steve Yegge 的一个惊人论断:
“使用 AI 智能体(Agent)的人,比现在用 Cursor 和聊天窗口的人效率高 10-100 倍,比 2005 年的 Google 工程师效率高 1000 倍。”
Garry Tan 写道:“这不是吹牛,我亲眼见过,我亲身经历过。”
他甚至爆出一个猛料:2026 年 3 月 31 日,Anthropic 意外地将 Claude Code 的全部 51.2 万行源码泄露到了 npm 仓库。他读完了。
“这次泄露证实了我在 YC 一直教导的东西:秘密根本不在大模型本身,而在那个包裹着模型的‘驾驭层(Harness)’!”
今天,我们就来读读 Garry Tan 这篇文章,看看硅谷最顶尖的玩家,是如何通过 “薄驾驭,厚技能(Thin Harness, Fat Skills)” 的架构哲学,来榨干大模型的每一滴潜能的。

在文章的开头,Garry Tan 就毫不客气地指出了当下大多数 Agent 框架的“原罪”:臃肿的驾驭层,和孱弱的技能。
我们大多数人是怎么做的?我们给 AI 挂载了 40 多个 Tool Calls,每一个工具都对应一个外部 API。结果就是,光是这些工具的定义,就吃掉了上下文窗口(Context Window)的一半!
大模型每次行动前,都要在几十个工具中艰难地做选择题,不仅推理速度慢得像乌龟,出错率更是高得离谱。
Garry Tan 给出的架构哲学恰恰相反:
推崇“薄驾驭(Thin Harness)”:驾驭层(Harness)只做四件事——循环运行模型、读写文件、管理上下文、执行安全策略。代码量可能只有 200 行。
推崇“厚技能(Fat Skills)”:将所有复杂的业务逻辑、判断力、领域知识,全部封装成一个个可复用、可参数化的 Markdown 文件,即“技能(Skill)”。
“反面教材就是一个臃肿的驾驭层,配上一堆孱弱的技能。……你想要的是专为特定目的打造的、快速且狭窄的工具。”
Garry Tan 认为,大模型的瓶颈从来不是智商。它天生就会推理、综合、写代码。它之所以频繁失败,是因为它不理解你的数据、你的规范、你问题的具体形态。
而下面这五个定义,正是修复这个问题的“架构级补丁”,也是“薄驾驭,厚技能”哲学的具体体现。
这是最颠覆认知的一点。Garry Tan 认为,优秀的 Skill 文件,工作起来就像一个函数调用(Method Call)。它接受参数,并且根据不同的参数,产生完全不同的能力。
他举了一个名为 /investigate 的技能为例。这个 Skill 只有 7 个步骤:圈定数据集、构建时间线、标注文档、综合信息、正反方辩论、引用来源。
“这根本不是提示词工程。这是软件设计。你用 Markdown 作为编程语言,用人类的判断力作为运行时。”
技能文件告诉模型“怎么做”,而解析器告诉模型“在什么时候,加载什么上下文”。
Garry Tan 坦白,他自己曾经写过一个长达 20000 行的 CLAUDE.md 文件,里面塞满了各种他遇到过的奇技淫巧。结果导致模型注意力严重下降,甚至 Claude 自己都“告诉”他让他删掉点。
最终的解决方案,是把这个巨大的文件,拆成了一个只有 200 行的“指针”文件,和一个解析器(Resolver)。
“当一个开发者改了代码,没有解析器,他直接提交了。有了解析器,模型会先去读取 docs/EVALS.md,这个文件说:先跑评测套件,对比分数,如果准确率下降超过 2%,就回滚并调查。”
解析器就像一个智能的“路由表”,在不污染上下文的情况下,按需加载最精准的知识。
这是 Agent 设计中最常见的错误:让 AI 去做它不擅长的事。
“一个 LLM 可以帮你安排 8 个人的晚宴座位,它会考虑每个人的性格和社交关系。但你让它去排 800 个人的座位,它会幻觉出一个看似合理、但完全错误的座位表。因为这是一个确定性的组合优化问题,应该交给传统算法。”
最牛逼的系统,对这条边界的划分是冷酷无情的。
这是让 AI 从“数据库”进化为“分析师”的关键一步。
倾向分析,就是让模型读取关于一个主题的所有信息,然后写出一份结构化的、浓缩了判断力的简介。
Garry Tan 以 YC 内部正在构建的、管理 6000 名创始人的 AI 系统为例:
传统的关键词搜索,根本无法发现一个伪装成“可观测性”工具的 FinOps 项目。
但通过倾向分析,AI 读取了创始人的所有 GitHub 提交、访谈记录、公开帖子后,会给出一个惊人的洞察:
“创始人:Maria Santos。公司:Contrail。声称在做:‘给 AI Agent 用的 Datadog’。实际在做: 80% 的代码都在写账单模块。她其实在做一个伪装成可观测性的 FinOps 工具。”
这种“判断力”,是任何 RAG 管道都无法产生的。模型必须真正地去“阅读”和“思考”。
这是 Garry Tan 架构哲学的最终闭环。
他给自己团队的 AI Agent 下了一条铁命令:
“你绝不被允许做一次性的工作。如果我让你做一件事,而这件事未来可能需要再做一遍,你必须:第一次手动在 3-10 个样本上完成它,把结果给我看。如果我批准了,你就必须把这个过程固化成一个 Skill 文件。如果它应该自动运行,就把它加到定时任务里。测试标准:如果我需要为同一件事第二次开口,你就失败了。”
每一次你写下的 Skill,都是对你的 AI 系统的一次永久性升级。它永不衰退,永不遗忘。当下一代更强的模型发布时,你所有的 Skill 都会在一夜之间变得更聪明。
Garry Tan 的这篇文章,为所有在 AI 时代感到迷茫的开发者,提供了一套极具实操性的架构蓝图。
它告诉我们,当大模型的能力趋于同质化时,真正的护城河,不在于你拥有哪个模型的 API 访问权限,而在于你为这个模型构建了怎样一个高效、智能、且能源源不断自我进化的“外部大脑”。
这个“大脑”,就是你沉淀下来的“厚技能(Fat Skills)”资产。
不要再沉迷于寻找那些能一键生成整个项目的“魔法按钮”了。慢下来,像一个真正的软件设计师一样,去思考你的流程、你的判断、你的领域知识。然后,把它们一一固化成 Markdown。
构建一次,它将永远为你运行。
资料链接:https://x.com/garrytan/status/2042925773300908103
今日互动探讨:
看完 YC 掌门人的这套“薄驾驭,厚技能”心法,你对自己目前开发 Agent 的方式有什么新的反思?你认为用 Markdown 来“编程”AI 的想法,是天才还是异端?
欢迎在评论区分享你的看法!
还在为“复制粘贴喂AI”而烦恼?我的新专栏 《AI原生开发工作流实战》 将带你:
扫描下方二维码,开启你的AI原生开发之旅。

原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!
我们致力于打造一个高品质的 Go 语言深度学习 与 AI 应用探索 平台。在这里,你将获得:
衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.
2026-04-18 07:54:11

本文永久链接 – https://tonybai.com/2026/04/18/ollama-from-open-source-hero-to-community-enemy
大家好,我是Tony Bai。
两年前,在本地大模型的蛮荒时代,Ollama 曾如一道神光,照亮了无数普通开发者的探索之路。
凭借那句魔咒般的 ollama run llama3,它以一种近乎“降维打击”的优雅,将普通人与本地 AI 之间的天堑夷为平地。
一时间,Ollama 被盛赞为“本地 AI 的 Docker”、“开源精神的典范”,几乎成了无数技术布道者口中的“开源英雄”。
但就在几天前,一篇名为《本地大模型生态系统不再需要 Ollama》的文章,在技术社区 Hacker News 上,引发了一场“社区公审”。
文章详细罗列了 Ollama 在享受了社区的赞誉之后,犯下的种种“罪行”:从对核心依赖 llama.cpp 长达 400 多天的“选择性遗忘”,到试图用私有模型格式“绑架”用户,再到其背后若隐若现的“VC 商业化”套路……
一夜之间,Ollama 的形象从“屠龙少年”,变成了那条它曾经挑战的“恶龙”。
今天,我们就来深度复盘这场顶级社区的大讨论,看看这位曾经的“开源英雄”,究竟是如何一步步走向“社区公敌”的深渊的。

Ollama 之所以能如此快速地在各种平台上运行大模型,其背后最大的功臣,是一个名为 llama.cpp 的 C++ 开源库。llama.cpp 是真正负责模型推理的底层引擎。
Ollama 的 v0.0.1 版本,在其 README 中曾明确写道:“一个用 Go 编写的快速推理服务器,由 llama.cpp 驱动。”
Ollama 的本质,是一个基于 llama.cpp 构建的、优化了用户体验的“包装器(Wrapper)”。
然而,随着 Ollama 的声名鹊起,llama.cpp 的名字,却在其官网和宣传中,被刻意地、系统性地抹去了。
在 Hacker News 的帖子中,有用户愤怒地指出:
“这根本不是开源礼仪的问题。MIT 协议只有一个核心要求:包含版权声明。Ollama 没有做到。”
“社区注意到了。GitHub Issue #3185 在 2024 年初就被提出,要求 Ollama 遵守协议。这个 Issue 在 400 多天里,没有得到任何维护者的回应。”
直到社区忍无可忍,发起了 PR,Ollama 的联合创始人才最终在 README 的最底部,加上了一行极其微小的致谢:“llama.cpp 项目由 Georgi Gerganov 创建。”
这种对核心上游项目近乎“羞辱性”的冷处理,被社区视为一种赤裸裸的“背叛”,激怒了所有信奉开源精神的开发者。
比忘记致谢更让开发者无法容忍的,是 Ollama 为了“锁定用户”,而精心设计的私有化模型存储格式。
如果你用过 Ollama,你一定经历过这样的困惑:
你用 ollama pull 下来的模型文件,被存储在你的 Home 目录下,文件名是一串毫无意义的哈希值。你根本无法将这个 GGUF 文件,直接分享给其他工具(比如 LM Studio 或 Jan)使用。
Hacker News 的一位用户一针见血地指出了这个设计的“阴险”之处:
“我停止使用 Ollama 的原因就在于此。我能理解他们可能是为了做去重(Deduplication),但这使得我无法与其他工具共享同一个模型。每个工具都只能指向它自己的文件。无论他们的意图如何,这都在客观上,让你极难尝试其他工具。”
更糟糕的是,Ollama 会在下载模型时,对原始的 GGUF 文件进行一些“魔改”,并使用自己的一套私有配置。这导致了另一个灾难:性能下降。
有人在评论中分享道:“我最近开始使用 Jan,然后用 llama.cpp 和本地的 Ollama 跑同一个模型,llama.cpp 的速度明显更快。”
用更差的性能、更封闭的格式,换取所谓“简单”的用户体验。这背后,是典型的“建立围墙花园”的商业化思维。
Ollama 为什么要这么做?
一位用户在评论中扒出了 Ollama 创始团队的“前科”,让所有人恍然大悟。
“Ollama 是一家由 Y Combinator 支持的创业公司,其创始人之前构建了一个被 Docker 收购的 Docker GUI 工具。这个剧本太熟悉了:
1. 包装一个现有的开源项目,做一个用户友好的界面。
2. 建立用户基础,获得社区信任。
3. 融资,然后想办法商业化。
4. 最小化对上游的致谢,让产品看起来是自给自足的。
5. 创造锁定,用私有格式和哈希文件名,让用户无法迁移。
6. 推出闭源组件(GUI App)和云服务,开始收割。”
这套从 Docker 时代的 Kitematic 延续而来的“VC 死亡陷阱”,正在本地大模型领域被完美复刻。
在这场社区的“公审”中,愤怒之余,开发者们也给出了大量极具建设性的“替代方案”。一场“去 Ollama 化”的大逃杀正在上演。
方案一:回归 llama.cpp 本身,王者归来
很多用户惊讶地发现,在他们唾弃 Ollama 的这段时间里,llama.cpp 自身已经进化成了一个极其强大的“完全体”。
它现在不仅自带了现代化的 Web UI(通过 llama-server),支持 OpenAI 兼容的 API,甚至还推出了“路由模式”,可以实现模型的“热插拔(Hot-swapping)”。
方案二:拥抱真正开放的“包装器”
社区推荐了大量同样易用,但秉持着真正开源精神的替代品,比如:
Ollama 的故事,是近年来开源商业化领域最值得深思的一个案例。
毫无疑问,Ollama 解决了本地大模型领域一个极其真实的痛点:极致的易用性(Ease of use)。它就像当年的 Docker,让无数普通人跨越了复杂的门槛。
但在追求极致 UX 的同时,它却似乎忘记了自己赖以生存的根基——那个由 Georgi Gerganov 等无数开源贡献者用爱发电构建起来的 llama.cpp 生态。
Hacker News 上的这场论战,并没有全盘否定 Ollama 的价值。但它向所有试图通过“包装开源”来构建商业帝国的创业者,提出了一个极其严肃的警告:
用户体验的简化,永远不能以牺牲“开放性”和对上游社区的“尊重”为代价。
你可以站在巨人的肩膀上,但你不能在站上去之后,假装那个巨人不存在。
作为开发者,我们享受着开源带来的巨大红利。但在选择工具时,除了便利性,我们或许也应该多一份清醒:去看看它的背后,是否隐藏着一个正在试图关上的“围墙花园”。
资料链接:
今日互动探讨:
你在使用 Ollama 时,是否也曾被它私有的模型管理方式所困扰?对于“包装开源”并进行商业化的模式,你是支持还是反对?
欢迎在评论区分享你的看法!
还在为“复制粘贴喂AI”而烦恼?我的新专栏 《AI原生开发工作流实战》 将带你:
扫描下方二维码,开启你的AI原生开发之旅。

原「Gopher部落」已重装升级为「Go & AI 精进营」知识星球,快来加入星球,开启你的技术跃迁之旅吧!
我们致力于打造一个高品质的 Go 语言深度学习 与 AI 应用探索 平台。在这里,你将获得:
衷心希望「Go & AI 精进营」能成为你学习、进步、交流的港湾。让我们在此相聚,享受技术精进的快乐!欢迎你的加入!

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。如有需求,请扫描下方公众号二维码,与我私信联系。

© 2026, bigwhite. 版权所有.