Logo

site iconIndigo | 芦义

Hallidai 联合创始人,BrilliantPhoenix Capital 合伙人,前微博副总裁,引力创投合伙人,投资了美ONE(李佳琦),有一居。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

Indigo | 芦义 RSS 预览

INDIGO TALK / AI 编码时代的软件革命 - EP45

2026-03-26 11:38:49

INDIGO TALK / AI 编码时代的软件革命 - EP45

这期 Indigo Talk 邀请了 ArcBlock 的创始人老冒(@mave99a),一位在软件行业深耕二十多年的硬核工程师。他坦言 AI 编码能力已经全面超越人类,并在公司强制推行"零人类代码"规则。对话深入探讨了 AI 时代的编程方法论——为什么应该告诉 AI 你要什么而不是怎么做,为什么传统的 CI/CD 和 Code Review 正在失去意义,以及为什么后端比前端更容易被 AI 替代。从一人一产品的团队模式,到 SaaS 行业的颠覆,再到区块链作为 AI Agent 信任基础设施的未来图景,这场对话为所有 Builder 提供了一份来自实战前线的认知升级指南。

Apple Podcast & Spotify 播客| 小宇宙播客

嘉宾

老冒(冒志鸿)— ArcBlock 创始人兼 CEO,前微软工程师,2017 年创立ArcBlock,专注去中心化应用开发平台

时间戳

  • 00:00 开场介绍:老冒与 Indigo 的 20 年友谊
  • 03:00 "AI 把我秒杀了"——一个硬核工程师的觉醒
  • 07:00 建房子的隐喻:Taste 比技术更重要
  • 16:00 Intent-Driven vs SDD:告诉 AI 你要什么,别告诉它怎么做
  • 26:00 100 倍效率,也是 100 倍破坏力——团队重组的阵痛
  • 36:00 软件行业的范式转移:从 Programmer 到 Builder
  • 56:00 反直觉的真相:后端比前端更容易被AI替代
  • 64:00 Agentic File System 与 AI 时代的信任基础设施
  • 74:00 Code is Law:区块链为 AI Agent 时代打下的基础

这是一场让人不断被颠覆认知的对话。老冒,一个在软件行业摸爬滚打二十多年、自认"写代码是一把刷子"的硬核工程师,坦然承认AI在编程能力上已经"把我秒成渣了"。但这期节目真正有价值的地方不在于这个结论本身,而在于老冒从实战中提炼出的一整套与AI协作的方法论——从建筑设计的类比到Intent-Driven Development的提出,从团队重组的实践到对整个软件行业未来形态的判断。如果你是一个正在思考如何在AI时代重新定位自己的Builder,这场对话值得反复咀嚼。

01

"AI 把我秒杀了"

一个硬核工程师的觉醒

今天的大语言模型在纯粹的编程能力上已经超越了任何人类工程师,这不是预测,而是已经发生的事实。

老冒开场就给出了一个让很多程序员不太舒服的判断。他说自己一直是个"蛮自负"的工程师,觉得编程水平不错,真刀实枪做过无数项目来证明自己。但到了去年,他不得不面对一个"很悲哀的事实":无论是编程、设计还是整个实现的水平,他已经完全不如 AI。

这个转折点大概发生在 Gemini 3 发布前后。而到了 Opus 4.6 的时代,老冒用了一个很形象的说法:"那绝对把我秒了,就是把我秒成渣了。"

更让人震惊的是他在公司里推行的 Hard Rule:过去三个月,ArcBlock产出了大量代码,但人类写的代码是零——一行都没有。"如果哪一个人还手写了一行代码,手写了一个 Check-in 的 Commit Message,他就有麻烦了,我得去找他。" 这不是一个实验性的尝试,而是一条强制执行的公司规定。

那些还觉得 AI 写代码不如自己的工程师,老冒的态度很直接:that's impossible,那只是因为你用错了,你不会用它。他打了一个千里马的比方——你有一匹千里马但骑不到千里,第一个要想的不是这马不行,而是你自己会不会骑马、马喂饱了没有。今天的 AI Code Agent 也是如此:当输出不好的时候,首先想的应该是"我错在哪里"。

老冒说到一个经典的程序员笑话:软件工程师是最好的 Husband,因为出现问题的时候,他们想的第一句话永远是"我错在哪里"。从当年程序 Crash了找自己的 Bug,到现在大语言模型输出不理想时反思自己的指令——这个思维习惯其实是一脉相承的。

02

建房子的隐喻

Taste比技术更重要

AI Code Agent的架构能力已经是"神般的存在",但要让它做出一流的作品,你自己得有品位。这就像造房子——你不需要知道怎么设计,但你得有审美。

这一段是整场对话中最精彩的类比之一。老冒用 Indigo在 温哥华的房子举例:砖头水泥混凝土玻璃钢,材料就那些,但为什么有的房子一看就有Taste,有的土豪砸了更多钱却一看就没品?区别不在于材料和施工,而在于业主的审美和设计师的理解力。

软件架构也是同样的道理。老冒说,今天的 AI 用最好的模型(比如 Anthropic 的Opus 或 Codex),从变量命名到代码格式,到 Design Pattern 的使用,都是"非常优秀的水平"。但如果让它做系统架构层面的设计,那就"不仅仅用优秀"来形容了——"他是一个神般的存在"。

INDIGO TALK / AI 编码时代的软件革命 - EP45

但这里有一个关键的前提条件:你得触发它。

就像一个顶级建筑设计师,他什么风格都懂——Contemporary、Mid-Century Modernism、Modern Farmhouse——但如果你什么都不说,他只能给你一个平庸的方案。当你告诉他"我不喜欢 Contemporary,太像水族馆了,我要 Mid-Century Modernism"的时候,他脑子里的画像瞬间就出来了,地中海式的、农舍风格的全部被过滤掉,精准匹配到你要的东西。

Code Agent 也是一样。你只要在 Prompt 里写上"我要写的代码需要风格优雅",它就能在高维空间里把"优雅"映射成具体的代码风格。如果你什么都不提示,完全有可能写出面条代码。提到 Design Pattern 的时候,老冒特别强调:"他用 Pattern 的能力是远大于人为的。"

这里老冒引入了一个非常有洞察力的解释:大语言模型本身就叫 Transformer——"我们就是干变形的,我们就是干风格迁移的。"它的工作方式本质上就是把一种维度升维、然后迁移到另一种维度。自然语言迁移成代码语言,一种风格迁移成另一种风格。只要训练数据足够,这个匹配可以非常精准。但你得告诉它:我想从A到B,这个A和B是什么。

03

Intent-Driven vs SDD

告诉AI你要什么,别告诉它怎么做

当前流行的 Spec-Driven Development(SDD)是一个误入歧途的方向。真正有效的方法是Intent-Driven Development——告诉AI你的目标,而不是微观管理它的执行过程。

这可能是老冒在这期节目里提出的最具争议性的观点。现在 AI 编程圈子里很流行SDD(Spec-Driven Development),就是写一个非常详细的规格说明书,让 AI 按照这个Spec来执行。老冒认为这是错误的方向。

INDIGO TALK / AI 编码时代的软件革命 - EP45

他用了一个 OKR vs KPI 的类比来解释。SDD 就像 KPI 文化——老板 Micro Management,规定你几点上班、销售怎么做、市场怎么弄。如果老板能力特别强,把 Spec 写得极其清晰,也许能挣到钱。但更大的概率是出现"KPI 做得极好,但干的事情没有任何毛用"的窘境。

而 Intent-Driven 就像 OKR——我的 Objective 是什么,Key Result 是什么,至于怎么达到,那是执行者的事。"我是个老板,我要赚钱。怎么赚钱?这事我不 Care。你这团队给我把钱挣回来就行了。"

老冒指出了 SDD 的根本问题:今天的大语言模型已经很聪明了,"它不是个牛马"。当一个智商可能不如AI的人类去写非常详细的Spec来指挥AI时,就像一个不那么聪明的老板在 Micro-manage 一群比他聪明的员工——那些员工(AI)会困惑:"老板怎么这么愚蠢?"

但老冒立刻补充了一个深刻的洞察:在大公司里,员工觉得老板愚蠢、老板觉得员工不行,大概率双方都不是真的愚蠢——根本原因是上下文丢失(Context Loss)。一个想法从老板的脑子里分解出去,到了执行者的上下文中,因为大量信息丢失了,看起来就变得"很愚蠢"。

SDD 的问题正是如此:你用人管人的方法去管 Code Agent,把任务拆得过细,每次拆分都在丢失上下文。而AI本身是一个"超级员工",比人的能力强100倍,根本不需要你去拆分任务。"你要告诉他我要什么,啪,做完了。怎么做的、怎么拆的,全部都想得一清二楚,比你想的还要清楚。"

Indigo 也分享了自己的实践验证。他在用 Claude Code 的时候有一次让它下载YouTube 字幕并转换成文章,完全没有告诉它具体流程。结果 AI 自己找到了GitHub上最常用的库,测试了哪些字幕可用、哪些不可用,确定了优先级——全部自主完成,而且比Indigo之前想的流程好得多。"如果说我之前还帮他想一些流程,你要这样做这样做,完全不需要。他可能比我想的好多了。"

老冒用一句话总结了这个转变的核心:"你要告诉他你要什么,别告诉他怎么做。"

04

100 倍效率,也是 100 倍破坏力

团队重组的阵痛

善用 AI 的员工可以拥有 100 倍的产出,但用得不好,破坏力也是 100 倍。传统软件工程的 CI/CD、Code Review 等实践正在被颠覆。

当 Indigo 问到 AI 对团队结构的影响时,老冒给出了一个让人振奋但也让人警醒的回答。

他在公司里推行的原则是把AI当成"伙伴"而不是"工具"——拟人化地看待它。ArcBlock 现在的团队里"有一堆AI和一堆人"。如果配合得好,效率是惊人的:一个善于驾驭AI的优秀员工,产出是普通人的 100 倍,"而且还没有沟通问题"。老冒一个人就相当于有 100 个比他还强的人组成的团队,"就在现在,就是就在跟你说话,就我一个人",同时有 20 个 Agent 在并行干活。

但硬币的另一面是:一个糟糕的工程师如果用了 AI,他的破坏力也是 100 倍。过去一个差的程序员,因为有 Code Review,因为他本身干活就慢,破坏力是有限的。但现在每个人都能产出 100 倍代码量,一个直接的问题就出现了——代码的 Merge 变成了噩梦。"过去是 10 个接口对接一下,现在是 1 万个接口。过去我改了你 50 行代码,我们讨论一下;今天我给了你 5000 行代码,甚至 5 万行代码,你怎么弄?你根本弄不过来。"

正是因为这种认知,老冒在 ArcBlock 做了一系列"离经叛道"的决定。他在公司 Blog上分享了这些实践,评论的人都觉得"你这个想法非常离经叛道",因为基本上全部都是软件行业的 Anti-Pattern。

具体来说:他们撤掉了所有的 CI(持续集成),也不再做人类 Code Review。他的逻辑是:AI 写的代码已经经过了内部的自我测试和 Review 流程,几乎不可能出错。你用另外一套系统再验证一遍,结果当然是对的,这有什么意义?只会造成等待,变得更慢。"我的 AI 帮你 Review 你的 AI"——几十个 AI Agent 已经形成了一个自组织的 Team,有的在写代码,有的在做计划,有的在做测试,有的在做Review。

他还提到了每个产品"一人一产品"的模式。这个灵感来自一家叫 every.to 的公司——表面上是科技媒体,实际上是一家软件公司,9 个工程师做了 5 个产品,基本上一个人负责一个产品。老冒第一次看到时觉得"全部都是软件行业的 Anti-Pattern",但随着自己实践得越多,越觉得"这可能就是最对的"。因为当你自己已经是 100 个 Agent 了,再来另外一个人只会增加协调成本。

05

软件行业的范式转移

从 Programmer 到 Builder

程序员这个职业会消失,但人人又都会成为程序员。真正的身份转变是从 Programmer 变成 Builder。SaaS 将被个性化软件颠覆,但大公司反而有更大的优势。

老冒花了很大篇幅来阐述这场变革对整个软件行业的冲击。他的判断出人意料地冷静和辩证。

INDIGO TALK / AI 编码时代的软件革命 - EP45

首先是关于大公司。很多人觉得AI会让大公司被小团队颠覆,就像马斯克说要做一个 Macrohard 来替代微软。老冒认为这只对了一半:代码确实可以被替代,但微软还有大量的企业组织关系、已有的客户资源——这些不是代码能解决的。"从这个角度来讲,对微软这样的公司来说,实际上不是一个威胁,实际上是有更大的优势。"

他用了一个特别生动的比喻来形容这个行业变迁:从马车到重型卡车。历史上从马车到汽车,赶马车的人失业了。但汽车从汽车到重型卡车,赶马车的人也无法直接开重卡——这需要完全不同的技能。今天的AI编程也是如此:不是"马车变成了更快的马车",而是一种全新的物种出现了。

对于 SaaS 行业,老冒的判断更加激进。他认为会有一个短暂的窗口期,大量"优质价廉的老 Style 软件"涌现。一个一人公司确实可以做出秒掉五年前二三十人公司产品的软件。但这个商业模式不可持续——因为获客成本的增长可能比开发效率的提升还快。"以前市场上就 10 款软件,现在市场上有 1000 款软件。GitHub 的提交数飙升,iOS 的 APP 商店飙升,但你的推广渠道没变多,还变便宜了——实际上变得更差了。"

最终,老冒认为 SaaS 这种标准化软件形态可能会被彻底改变。未来每个软件都是个性化的——"我家里的软件和你家里的软件完全不一样,但它都能满足我们各自的功能"。SaaS 的壳(UI 和 Logic层)会被 AI 生成取代,而 Database 和 Infra 层仍然需要。

关于程序员群体的命运,老冒给出了一个温度很高的观察:关键不是 Coding 水平有多高,而是你对工程这件事有多热爱。"我在过去这几个月的时间里面,我找到了我在大学时代日以继夜写代码的那种感觉,而且比那时候爽得多。" 那些真正热爱软件的人,不管水平高低,都会在 AI 时代如虎添翼。但那些只是因为"软件行业有钱赚"而入行的人,挑战会非常大。

Indigo 帮老冒做了一个精准的总结:过去有 Designer、Programmer 这样的分工,现在统一成了一个词—— Builder。"你不管用什么方法去构建,构建者是一个特别适合这个时代的身份。人人都是程序员,程序员这个职业会消失掉,但人人又都成为程序员。"

06

反直觉的真相

后端比前端更容易被 AI 替代

社交媒体上流行"前端被干掉了"的说法其实是一种误解。对 AI 来说,设计数据库、网络协议、分布式系统比做网页要简单得多。

这是整场对话中最反直觉的一个论断。社交媒体上经常有人喊"AI 把前端干掉了",因为像 Gemini 3 这样的模型做前端看起来确实很炫。但老冒的观点完全相反——对今天的 AI 来说,设计个网页其实是最困难的事情。为什么?因为前端涉及到大量的审美判断、用户体验细节和视觉呈现的微妙之处,这些恰恰是AI还不够精准的地方——可控性没那么好。

而设计一个数据库、设计一个网络协议、设计一个分布式系统?"那是比做网页对 AI 来说简单得去了。" 因为这些后端系统有明确的逻辑规则和最佳实践,AI 学习起来更高效、执行起来更精确。所以老冒笑着说:"不要说什么前端被干了,后端早就被干的不成样子了。"

同时 Indigo 观察到一个有趣的就业市场数据:2025 年第四季度,美国开放招聘的程序员岗位反而变多了——在第三季度触底之后出现了一个拐角式的反弹。老冒的解释是双向运动:大厂确实在裁掉初级和中级码农,但市场上还有大量中小企业以前想都不敢想能雇一个工程师。"老板买了 3 个SaaS,想搞一个 AI 技能把 3 个 SaaS 组合起来定制化完成业务——之前绝对不敢想的。现在老板说我需要顾问,需要程序员,哪怕不全职也可以。"

也就是说,Builder 这个角色正在渗透到各行各业,帮助传统企业完成定制化的软件需求。

07

Agentic File System 与 AI时代的信任基础设施

当前的操作系统和文件系统是为人类设计的,AI Agent 在其中是"二等公民"。ArcBlock 提出的 Everything is a Context 哲学和 Agentic File System,以及区块链作为 AI Agent 的信任基础设施,将重塑整个软件基础架构。

对话的最后一部分进入了老冒作为 ArcBlock CEO 的主场——AI 时代的基础设施应该长什么样。

他指出了一个很多人忽视的问题:今天我们所有的 Infrastructure——操作系统、文件系统、开发工具——都是为人类设计的。AI Agent 在其中是"二等公民"。我们需要用 Playwright 之类的工具让 Agent 去读懂人类的界面,需要在文件夹里放 Agent.md来给 Agent 提供上下文——"这些都是一个二等公民干的事情"。

ArcBlock 做的事情是把 Agent 变成"一等公民"。他们发表了一篇学术论文,提出了 Agentic File System 的概念——一个专门给 AI Agent 使用的文件系统。其核心哲学是把 Unix 系统的"Everything is a File"扩展为"Everything is a Context"(一切都是上下文)。这篇论文在圈子里引起了不小的反响,被多个 AI 领域的大V推荐。

但更大的图景是区块链与 AI 的结合。老冒的观点是:区块链在 AI 时代有了全新的、也许是真正的应用场景。过去区块链最大的摩擦力是用户体验太差——钱包搞不定、操作太复杂。但这些东西对Agent来说根本不是问题,"太简单了"。

区块链的核心价值是什么?是 Verification(可验证性)——Don't Trust, Verify。在人类经济中,Trust(信任)是最高成本的东西。区块链通过密码学让验证变得快速和低成本。过去人类用区块链的时候,虽然技术上可以自己验证签名,但绝大多数人(包括老冒自己)从来没真正手动验证过——我们只是"相信程序,相信钱包"。但 AI Agent 可以真的去验证:立刻写一段代码来验证签名是不是对的,全部搞得定。

这引出了最后一个关键议题:AI Agent 时代的安全和信任。老冒提到了 OpenClaw(小龙虾),认为这类给 Agent 开放完整系统访问的工具虽然个人可以玩玩,但团队层面绝对不敢用——"我在Mac Mini上装了一个,就封闭在一个文件夹可以访问就好了,这东西太危险了。" 他甚至引用了马斯克的比喻:这相当于把 AK47 给猴子。

最后,老冒提出了一个贯穿整场对话的终极概念:Code is Law。这个概念最早出自互联网协议设计时代——互联网就是个对等网络,一切靠协议来执行规则。后来区块链把互联网"升级"了一下,加入了交易和价值存储的能力。而在 AI 时代,Code is Law 将用来为 Agent 建立规则和约束。

INDIGO TALK / AI 编码时代的软件革命 - EP45

"过去这几年的 Blockchain 发展,一方面带来了赌场和一些金融的东西,但我觉得更多的是为 AI 时代打下了坚实的基础。" 老冒甚至提出了一个有诗意的观点: Blockchain 是个未来的技术,不小心在 2009 年被比特币带到了人类社会——它的真正使命,也许要等到 AI Agent 时代才能完全展现。


延伸思考


这场对话触及的问题远远超出了"AI编程"的范畴。往深了想,有几个值得持续关注的方向:

第一个是"上下文即一切"的哲学延伸。老冒反复强调上下文丢失是沟通失败的根本原因——无论是人与人之间、人与 AI 之间、还是多 Agent 之间。这意味着未来最有价值的基础设施,可能不是更快的计算或更大的模型,而是更好的上下文管理系统。

第二个是 Builder 经济的制度性影响。当软件开发的门槛大幅降低、个性化软件成为常态,现有的 SaaS 订阅模式、软件版权体系、甚至计算机科学教育都需要根本性的重构。

第三个是 AI Agent 社会的信任架构。当越来越多的 Agent 代替人类做决策和执行任务,谁来保证 Agent 没有被恶意注入?谁来验证 Agent 的行为符合预期?区块链提供了一种可能的答案,但这个领域才刚刚开始。

精华收获

  • 心态转变:当 AI 输出不好的时候,先问"我错在哪里"而不是" AI 不行"。好的骑手能驯千里马,差的骑手会被千里马踢一脚。
  • 核心方法论:Intent-Driven Development 优于 Spec-Driven Development。告诉AI你要什么(OKR),而不是微观管理它怎么做(KPI)。上下文丢失是一切沟通问题的根源。
  • 触发机制:AI 是一个懂得所有 Design Pattern 的超级建筑师,但需要你提供风格方向。一个词(比如"优雅")就能触发它调用完全不同的知识体系,Transformer 本身就是干"风格迁移"的。
  • 团队范式:一个善用 AI 的人 = 100个过去的人(但用得不好的人也能制造 100 倍的破坏)。CI/CD 和人类 Code Review 在 AI 原生团队中正在失去意义。
  • 行业判断:SaaS 的 UI 和 Logic 层将被 AI 生成取代,但 Database 和 Infra 仍然需要。后端比前端更容易被AI替代(反直觉)。大公司因为已有客户和组织能力,反而有更大优势。
  • 未来基础设施:Everything is a File → Everything is a Context。当前的基础设施视 AI Agent 为二等公民,需要重新设计。区块链的真正使命可能是为 AI Agent 时代提供信任基础设施,Code is Law 的概念将从约束人类扩展到约束 Agent。

INDIGO LIVE / AI Agent, Vibe Coding & Design 现场指南 — 周末氛围直播回放 2026.03.07

2026-03-18 14:36:18

INDIGO LIVE / AI Agent, Vibe Coding & Design 现场指南 — 周末氛围直播回放 2026.03.07

没有 PPT,没有脚本,甚至连提纲都没有。这期周末氛围直播的起因很简单——Indigo 的技术搭档 Neethan 飞来温哥华滑雪,结果遇上暴风雪,两个人窝在屋里,聊了两个月来最让他们兴奋也最让他们不安的事:Coding Agent 带来的 10 倍加速,正在改变软件生产的底层逻辑。

话题从杰文斯悖论聊到 Agent Infrastructure,中间穿插了两场现场 Demo——Telegram 接入本地 Claude Code,以及用 Pencil.dev 做 Vibe Design——都是真实项目,现场写、现场跑、现场翻车再现场修。两个小时下来,与其说是直播,不如说是一次关于「AI 到底改变了什么」的即兴对谈。

嘉宾

Indigo(数字镜像博主 / AI 科技投资人)

Neethan(Indigo 技术搭档 / 全栈工程师)

时间轴

00:00:00 开场 - 周末氛围直播 & 嘉宾介绍

00:04:30 软件工程的杰文斯悖论:中小企业胆子变大了

00:11:00 Agent Infrastructure:为 Agent 而建的新基础设施

00:22:00 写作风格提取:让 AI 成为你的数字分身

00:38:00 实战 Demo #1:Telegram × Claude Code 桥接

00:51:00 插曲:Google DeepMind 论文 —— Agent 协作的未来

01:02:00 实战 Demo #2:Pencil.dev × Vibe Design

01:25:00 Telegram Bot 测试 & 研究能力演示

01:38:00 AI 使用的实用建议:别为了省 Token 用次级模型

01:45:00 软件的第四次进化:从 SaaS 到 AI + Context

01:58:00 总结与未来规划


以下是对本期直播的详细梳理

01
杰文斯悖论
当编程变便宜,程序员反而更值钱了

AI 让编程成本暴降,但软件工程师的需求不降反升。

Indigo 亮出一张 Indeed 的数据图:2025 年下半年起,开放的软件工程师职位数量持续走高。所有人都在喊「AI 要取代程序员」,数据讲的却是另一个故事。

这就是杰文斯悖论——一种资源的使用效率大幅提升时,总需求不降反升。电价越便宜用电量越大,AI Token 越便宜用得越多,软件工程也一样。

真正在变的不是需求量,而是需求来源。 过去一家 100-200 人的公司想做定制化 CRM 或 ERP,得养 10-20 人的研发团队,贵到只能买标准化 SaaS;现在有了 Coding Agent,1-2 个懂技术的人就能干原来一个团队的活。

Neethan 讲了个案例:他们拜访的一家温哥华本地金融公司,老板从来没想过要雇技术团队,现在开始认真考虑自建系统了——成本结构变了。这种事不是个例,采购 vs 自建的天平正在行业范围内倾斜。

裁员确实在发生,但不能全归因于 AI——疫情期间的超额雇佣、Block/Jack Dorsey 裁掉 40% 员工这类激进操作,都是混合因素。Indigo 建议跟踪 Shopify 的 Economy Index,比新闻标题靠谱得多。

说白了,职位名称会变——叫「AI Engineer」也好,叫「AI Master」也好——但需求本身不会消失。更重要的是,大量从未雇过技术人员的企业,第一次产生了软件定制的需求。这不是存量的重新分配,这是增量。

02
Agent Infrastructure
不是为人建的,是为 Agent 建的

下一代基础设施的用户不是人类,是 Agent。这个市场才刚开始。

Indigo 提出了一个概念:AI Harness——你为 AI Agent 配置的工具集、环境和工作流的总和。这和传统 AI Infra(算力芯片、电力)不是一回事,AI Harness 关心的是沙盒、文件系统、权限管理、API 接口——是为 Agent 搭建运行环境。

软件正在经历一次分层重组:中间的逻辑层和 UI 层会逐渐消失,数据层和基础设施层还在;逻辑层被 AI 动态生成的代码取代,UI 层由 Agent 根据上下文实时渲染。

Indigo 的推理链很简洁:Everything is Software,AI can build all Software,所以 AI is Everything。听起来像口号,但 Claude Opus 4.5 发布后他们真实感受到了编程能力的跳跃——「从使用角度看,是 10 倍的提升」。

不过这种能力分布极不均匀:大概只有 1% 的人在用 Agent 框架,10% 在用付费 AI 对话工具,用户之间的能力差距可以拉到两年以上。Indigo 的原话:「AI is a reflection of the people who use it。」AI 是使用它的人的镜子。

那么问题来了——当 Agent 成为软件的核心使用者,我们要给它们建什么样的基础设施?

03
写作风格提取
你的数字分身,从一个 Skill 开始

把你过去写的东西喂给 AI,它能提炼出你的写作风格,变成一个可复用的 Skill(技能包)。

Indigo 把自己 2021-2025 年写的 10 多篇文章丢给 Claude,让它提炼写作风格。Claude 总结出了 10 条特征:以宏大叙事开篇、精准落点、情绪弧线(好奇→质疑→认知→哲思)、擅用隐喻、始终回归个人视角。

这套风格指南存成了一个 Skill,以后任何通用内容都可以过一遍,转化成 Indigo 的语气和节奏。说白了,这是在构建数字分身的写作人格——不是让 AI 模仿你,而是让 AI 内化你的审美判断。

这里有个反直觉的原则:不要给 AI 规定路径,给它目标就够了。 Indigo 反复强调:「千万不要告诉 AI 第一步干什么第二步干什么。」AI 大概率比你更聪明,给太多约束反而拉低产出。人该做的是提供「噪音」和意外输入,防止 AI 陷入套路。他的原话:「现在的 AI,大家千万别再问提示词了,直接跟它说话就行。」

04
实战 Demo
Telegram × Claude Code 桥接

搭一个 Telegram Bot 桥接到本地 Claude Code,用手机远程控制 AI Agent——走的是订阅额度,不是按量计费的 API。

Neethan 从一个空文件夹开始,用自然语言描述了需求。Claude Code 先生成了一份规划文档,然后同时派出 3 个子 Agent 并行干活:一个研究 Claude Code 子进程机制,一个搭 Telegram Bot,一个对接 Vercel 的 Chat SDK。

几个工作流值得注意:用 Talon 语音输入快速口述指令,用 Superset 终端管理多个 Agent 会话,以及一个他们反复提到的习惯——「先规划后编码」,永远让 Agent 先出一份 Markdown 计划,确认了再动手。

Indigo 特别补了一句:不懂技术的人别被终端界面吓到——Claude Code 不只是编程工具,它更像一个通用的 AGI 工具;多个 Agent 通过共享文件系统协调,它们能看到彼此的工作成果。

05
Google DeepMind 论文
Agent 不是听你指挥的,是来指挥你的

未来的主要协作不是人和 Agent 之间的,而是 Agent 和 Agent 之间的。

Indigo 引用了 Google DeepMind 近期一篇关于 Agent 协作的论文,两个结论值得细想:第一,未来协作的主体是 Agent 与 Agent,不是人与 Agent;第二,在人机协作中,Agent 会指导人类——恰恰不是反过来。

Elon Musk 的 Optimus 工厂构想其实是同一个思路:一群机器人在地面干活,云端的 Grok 当「超级指挥官」统一调度——Agent Swarm 在物理世界的版本。

这个结论初听有些刺耳,但仔细想想:人类擅长的是定义目标和做出判断,Agent 擅长的是拆解任务和高效执行。让擅长执行的去调度执行流程,让擅长判断的专注判断——这不是被取代,这是各归其位。

06
实战 Demo
Pencil.dev × Vibe Design

AI 不只能写代码,还能直接做视觉设计——多个 Agent 在同一块画布上同时工作,实时生成品牌一致的界面。

Neethan 演示了 Pencil.dev——一个可以被 Claude Code 直接操控的可视化画布。他们提前构建了一套设计系统(VI/品牌识别),涵盖色彩、字体、间距、动效规则和设计哲学;Logo 和配色由人类设计师完成,其余全部交给 Claude。

Demo 里 Claude 被要求创建 3 个页面:Landing Page、博客/文章页、产品索引页。画面上 3 个 Agent「光标」同时在动——分别叫 Amber、Marriage 等——通过画布底部的文字互相沟通,字体、颜色、布局都严格跟着品牌规范走,图片由 Gemini 实时生成。

后面又追加了亮色主题和移动端响应式版本的需求,Agent 也顺利搞定,设计成果可以直接导出为开发代码。Indigo 说了句:「Claude 的审美还是不错的。」整个过程就是一次 Agent Swarm 的实况演示——不是一个 Agent 在干活,而是一群 Agent 在协作。

07
别省钱
AI 使用的几条实战建议

永远用你能拿到的最强模型。瓶颈不在 AI,在你。

关于模型选择: 「千万不要为了省 Token 去用一个次级模型」——在弱模型上来回沟通烧掉的 Token,远比用顶级模型一次搞定的成本高。推荐 Claude 4.6 / GPT 5.4 / GLM-5(均为 Claude 4.5 级别)。

关于工具: Claude Code 和 Codex 能力相当,在用哪个就继续用,不必来回切换;Pro 和 Max 订阅的区别只是用量,智能程度一样。

关于语言: 用你能最清晰表达自己的语言就行——英语在技术术语上更精确,但如果中文说得更自然那就用中文,关键是表达清不清楚,不在于用哪种语言。

关于瓶颈: 「你要感受最好的模型它的边际在哪。」模型的推理和逻辑能力已经很强了,人才是瓶颈——你的提问质量、上下文管理能力、判断力,决定了 AI 产出的上限。

08
软件的第四次进化
从 SaaS 到 AI + Context

软件正在经历第四次范式转移:未来的软件 = AI 模型 + 动态上下文 + 人类连接器 + Agent。

Indigo 梳理了软件的四个时代:第一代,软盘拷贝加授权码;第二代,互联网下载和共享软件;第三代,云端 SaaS;第四代,AI 模型 + 动态 Context(上下文)+ 人类连接器 + Agent。

Anthropic CEO Dario Amodei 的说法被提到:持续学习等于不断增长的上下文,不是重新训练模型。Anthropic 在扩展上下文窗口时很谨慎,追求质量而不是单纯堆长度;Google 的路径不同——Gemini/Titans 架构从另一个方向切入,保持 KV Cache 精简的同时扩大有效记忆容量。

推到极端:所有能在电脑上完成的业务本质上都是「软件公司」,你只需要维护好上下文。人的角色不再是「生产者」,而是「连接器」(Connector)——连接业务需求和 AI 能力。

关于焦虑,Indigo 的态度很直接:人类一直是生产环节的瓶颈,AI 把人从生产中解放出来,这是机会而不是威胁。「Paradigm is shifting,我们没有必要在旧的范式里面一直保持防守。」


尾声

结构性变化已经发生了——中小企业对软件定制的需求在爆发,SaaS 的垄断地位在松动,新型软件顾问和外包模式正在长出来。这不是「程序员失业」的故事,这是「所有人都开始写代码」的故事。

Agent Swarm 已经是现在进行时。从 Telegram Bot 到 Pencil.dev 设计,多 Agent 并行协作从论文走进了日常工作流;Agent 与 Agent 协作、Agent 调度人类,正在成为常态。

从软盘到 SaaS 用了 30 年,从 SaaS 到 AI + Context 可能只要 3 年。在这个转变里,持续学习和上下文管理会取代传统的代码编写,成为软件工程的核心能力。

Indigo 最后说了一句:「你可以终于去干你自己想干的事了。」

范式正在转移。你是在旧范式里防守,还是在新范式里进攻?

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

2026-03-10 12:59:04

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

生命的历史,就是一部免疫的历史。从最早的单细胞生物学会区分"自己"和"非己"的那一刻起,免疫系统就是地球上所有复杂生命得以存续的底层操作系统。然而在过去两百年里,面对癌症这个对手,人类几乎忘记了这件事。

我们发明了手术刀、化疗药、靶向导弹——每一代疗法都更精准,但结局几乎没变过:肿瘤变异,逃逸,卷土重来。我们赢了无数场战斗,从没赢过这场战争。原因很简单:我们一直在用外来的武器去打一场只有身体自己才能赢的仗。

本期 Indigo Talk 来到温哥华线下,邀请了 UBC 前教授、加拿大最早一批溶瘤病毒科学家贾伟(William),以及他的联合创始人 Chris。两位复旦校友在 2014 年创立了复诺健生物科技(Virogin Biotech),用基因工程改造的病毒去"叫醒"人体沉睡的免疫军团。从免疫学的原理到临床数据发 Nature 主刊,从"原位疫苗"与 Moderna 的路线分歧到 AI 在生物学里的真实处境,这场对谈拆解了一个正在发生的转变:癌症不再是绝症宣判,而是一场可以管理的慢性博弈。

Apple Podcast & Spotify 播客| 小宇宙播客

嘉宾

  • 贾伟 William(复诺健联合创始人,前 UBC 教授 溶瘤病毒科学家)
  • Chris(复诺健联合创始人 CEO,制药行业 20 年)
  • Indigo(数字镜像博主)

时间轴

  • 00:02:32 嘉宾介绍:从复旦到温哥华的生物科技创业之路
  • 00:07:02 癌症的本质:不是病,是一个会逃跑的对手
  • 00:08:32 治疗进化史:手术 → 化疗 → 靶向 → 免疫治疗
  • 00:13:32 癌症免疫的三个"E":消除、平衡、逃逸
  • 00:20:52 免疫系统的双重武器:固有免疫 vs 获得性免疫
  • 00:25:09 CAR-T 与 PD-1:免疫治疗的两大里程碑
  • 00:27:32 复诺健的两大技术平台:溶瘤病毒与 saRNA
  • 00:31:32 VG161:全球首个携带四个细胞因子的溶瘤病毒
  • 00:40:30 原位疫苗 vs Moderna:谁才是真正的"个性化"?
  • 00:45:32 AI 在生物学中的真实边界:算力不是瓶颈,数据才是
  • 01:05:32 癌症可以被征服吗?把肿瘤变成慢性病

过去两百年,人类治疗癌症的思路一直是"杀死它"。但贾教授提出了一个认知框架,彻底改写了这个叙事:癌症与免疫系统的关系经历三个阶段——Eliminate(消除)、Equilibrium(平衡)、Escape(逃逸)。治疗的目标不是把肿瘤杀光,而是把患者拉回平衡态。

复诺健的溶瘤病毒 VG161 是这一思路的产物。它不直接杀死肿瘤,而是炸开肿瘤、暴露全部抗原、激活免疫系统,让身体自己学会识别和控制肿瘤。这是一支"原位疫苗"——用一个通用产品实现个性化免疫。Moderna 的 mRNA 疫苗挑 20 个抗原编码注射;复诺健把上万个抗原全扔出来,让你的免疫系统自己选。

临床数据发了 Nature 主刊。在经过 PD-1 预治疗的肝癌患者中,VG161 将中位总生存期提升了约 268%。

癌症不是不可战胜。是我们过去一直用错了打法。

序章
一个被"误解"了两百年的对手

我们从小被教育,癌症是一种"疾病"。得了病就治病,治病就是消灭病灶。手术切掉,化疗杀死,靶向精准打击——所有治疗手段都指向同一个目标:Eliminate,消灭。

但 Chris 在对谈一开头就提了一个让人停下来想的事:你在显微镜下看那个癌细胞,它其实不是一种"病"。它就是你自己的细胞,只不过失控了。它不是入侵者,是叛变者。而且这个叛变者还会"穿上隐身衣",通过基因变异躲开免疫系统的追杀。

贾教授的话说得更直接:这就是癌症难治的根子。它本来就是我们自己的细胞,失控了,变成恶性生长。免疫系统很难把它和正常细胞分开。

说白了,人类两百年的治疗史就是一部"杀不死"的历史:

  1. 手术时代。 早期肿瘤可以切掉,晚期扩散了手术就无能为力。
  2. 化疗时代。 用细胞毒性药物轰炸一切快速生长的细胞。肿瘤缩小了,但正常细胞也被大量杀伤,毒副作用巨大,生存时间没怎么延长。
  3. 靶向药时代。 针对特定基因靶点设计药物,精准度上去了,毒性下来了。但肿瘤会突变——靶点一变,导弹就打不中了。贾教授说得很直白:"所有的靶向药最后都会出现耐药。"
INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

每一代疗法都比上一代更聪明。但癌症比我们更会躲。

这不是技术不够强。是思路从根子上就错了。

那么,什么才是对的思路?

01
三个"E"
从"杀死肿瘤"到"与瘤共存"的认知翻转

治疗癌症的目标,不是消灭肿瘤,而是恢复平衡。

2014 到 2015 年,免疫治疗被 Science 和 Nature 同时评为突破性疗法(Breakthrough)。这不只是又一个新药。这是整个抗癌作战思想的推翻和重建。

贾教授用一个简洁的框架拆解了肿瘤和免疫系统的真实关系,他管它叫三个"E"

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

第一个 E:Eliminate(消除)。 年轻时免疫系统强,肿瘤细胞一出现异常,免疫细胞马上识别并清除。这件事每天都在你体内发生,你甚至感知不到。

第二个 E:Equilibrium(平衡)。 随着年龄增长或免疫力下降,免疫系统没法完全消灭肿瘤了,但还能压住它。肿瘤存在,但不长也不缩,免疫和肿瘤之间维持一种微妙的平衡。贾教授说:**这个平衡状态可以持续几十年不变。**有人身上可能一直带着一个肿瘤,但免疫系统把它按住了,他一辈子也不发病。

第三个 E:Escape(逃逸)。 免疫力再降,平衡被打破,肿瘤开始不可控制地生长。我们在临床上看到的晚期肿瘤,都是在第三个 E 的阶段才被发现的。

这三个 E 改变了一切。

过去的思路是:你有肿瘤,我把它杀光。但晚期肿瘤杀不光——它会变异,会逃逸,会在你用药的同时长出新的克隆。贾教授反思得很直接:"我们知道我们过去追求错了。你要把它全部杀掉,杀不死,然后病人给你弄死了……各种各样毒副反应,病人受不了了。"

新的思路是:不追求消灭,追求平衡。

把患者从第三个 E(Escape)拉回到第二个 E(Equilibrium)。肿瘤还在,但它不长了,不影响生活。就像高血压、糖尿病一样——管理好,就能一直活下去。

贾教授的原话:"我们要追求的是病人的 Overall Survival,他的生存时间要延长。你肿瘤有没关系,没有去掉也没关系,只要他不怎么长了,你把他控制住就行了。"

什么办法可以控制住?他的回答只有六个字:只有免疫做得到。

这个判断的背后,是免疫系统两个不可替代的能力——高度精准,和长期记忆。那这两个能力到底是怎么工作的?

02
免疫的精妙设计
为什么 T 细胞是人体最强的精确武器


免疫治疗的本质,不是给你一种新武器,而是唤醒你体内已经存在的那支军队。

贾教授把人体免疫系统拆成两套完全不同的武器系统。这个拆解本身,就是理解后面所有治疗逻辑的钥匙。

固有免疫(Innate Immunity)——人体的快速反应部队。病毒或细菌入侵时,几分钟到几小时内就能启动。但它有两个大问题:不分敌我,而且没有记忆。贾教授的比喻很直接:固有免疫就像地毯式轰炸,什么都干掉,连周围的正常组织也一起损伤,造成炎症、溃烂、过敏。而且轰炸完了它就忘了,下次同样的敌人来,还要从头再来一遍。

获得性免疫(Adaptive Immunity)——这才是免疫的精锐。它比固有免疫慢,需要被"教育"才能工作。但一旦学会,它有两个压倒性的优势:

第一,高度精准。核心武器是 T 细胞。贾教授强调这一点时语气特别重:"T 细胞的杀伤是高度精准的杀伤,这点你必须记住,非常重要。"T 细胞不乱杀,它只杀已经被识别的目标,对周围正常组织几乎零伤害。

第二,有记忆。一旦它"认识"了某个抗原,就永远记住。以后同样的敌人再来,T 细胞直接出手,不需要固有免疫先开路。

疫苗的原理就是这个——"提前教育"获得性免疫系统,让 T 细胞和 B 细胞在没有真正感染的情况下,先学会识别目标。

两套系统配合起来形成一个闭环:固有免疫先启动、制造炎症,同时召唤获得性免疫参与;获得性免疫学习、记忆、接管防御。前者火力掩护,后者精确清除。

这个框架一旦理解,癌症免疫治疗的核心逻辑就清楚了:不是给你一种外来的化学武器去杀肿瘤,而是重新训练你自身的获得性免疫系统,让它"认识"肿瘤——然后让 T 细胞这枚精确武器,去完成它本该完成的工作。

但问题来了:肿瘤之所以长到第三个 E(Escape),正是因为它成功地在免疫系统面前"隐身"了。怎么让免疫系统重新"看见"肿瘤?

03
溶瘤病毒
不是杀手,而是"间谍"


溶瘤病毒的真正价值,不在于它能杀死多少肿瘤细胞,而在于它能暴露多少肿瘤抗原。

溶瘤病毒(Oncolytic Virus)这个名字本身有点误导——它暗示这种病毒的功能是"溶解肿瘤",像一个杀手。贾教授坦承,早期他们确实这么理解的:"开始以为它是个杀肿瘤的。"

但现在认知完全翻了过来。

它更像一个"间谍":潜入肿瘤内部,炸开肿瘤细胞的城墙,让原本被隐藏的肿瘤蛋白暴露在免疫系统面前。免疫系统终于"看见"了肿瘤的真面目,T 细胞被激活,精准猎杀开始。这个间谍不负责杀人——它负责"撕下伪装"。

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

复诺健的核心产品 VG161 就是基于这个逻辑设计的。载体是 HSV-1(单纯疱疹病毒 1 型),经过基因改造后不会再引起疱疹——人类跟 HSV-1 共存了几十万年,安全性很高。改造后的病毒只能在肿瘤细胞中复制,在正常细胞中不长。

VG161 是全球第一个在 HSV 病毒上同时携带四个细胞因子的药物:IL-12、IL-15、IL-15 受体和一个 PD-L1 多肽。四个"弹头"各管各的——有的招募 T 细胞,有的增强 T 细胞杀伤力,有的解除肿瘤对免疫系统的"刹车"。投递方式是瘤内注射(Intratumoral Injection),直接打进肿瘤内部,在肿瘤微环境中引爆。

这里有个历史上的有趣呼应。1928 年,弗莱明发现青霉素时,人类以为抗生素会一劳永逸地终结细菌感染。结果几十年后,超级耐药菌出现了——细菌通过突变逃逸了抗生素的攻击。今天的癌症治疗面对的是同样的结构性问题:靶向药在分子层面遭遇了和抗生素一样的困境——单一靶点压制,必然催生抗性逃逸。而溶瘤病毒的策略恰恰是反过来的——它不选择一个靶点去压制,而是把所有信息全部暴露,让免疫系统自己去建立一个多靶点、可进化的防线。从"精确制导单弹头"到"全面暴露让免疫自主选择",这是治疗哲学层面的范式切换。

这就引出了整场对谈中最有意思的概念。

04
原位疫苗 vs Moderna
谁才是真正的"个性化"?


真正的个性化不是药在做定制,而是你的身体在做定制。

Indigo 提到自己曾买过 Moderna 的股票时,对谈进入了最有张力的一段。

Moderna 的肿瘤疫苗路线很多人已经知道了:取出患者的肿瘤组织,用 AI 分析并筛选出约 20 个最有代表性的抗原,编码成 mRNA 疫苗注射回去,训练 T 细胞识别这些抗原,防止术后复发。逻辑上说得通,技术上也优雅。

但贾教授只用了一个概念就把它拆开了:原位疫苗(In-situ Vaccine)

复诺健的溶瘤病毒其实就是一支"在体内原地制造的疫苗"。不需要提前取样、体外编码、定制生产。它做的事更简单也更粗暴:直接在肿瘤内部引爆,让所有抗原自然暴露,让患者自身的免疫系统来"选"哪些抗原最值得记住。

间谍再次出场——它不只是撕下了伪装,它把肿瘤的整个身份信息全部交给了免疫系统。而 Moderna 的路线,相当于间谍只拍了 20 张照片回来。

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

这两条路线的差异在三个层面上很明显:

广谱性。Moderna 选取 20 个抗原。但一个肿瘤可能有上万个突变抗原。贾教授的逻辑很直接:"我暴露有一万个抗原的话,总有些能够识别的。你挑了 20 个,有可能 20 个只有 10 个有抗原可以认识。还是我的选择性要大得多。"

成本和速度。Moderna 的方案要为每个患者定制——取样、测序、AI 分析、编码、生产——周期长、成本高。复诺健的溶瘤病毒是一个 Off-the-Shelf 产品。同一支药,给谁都一样。

个性化的方式。这是最精妙的地方。贾教授用一句话点破:"它也是一个个性化的,但它是 Off-Shelf 的 Individualized。"同一支病毒注射进不同的患者体内,暴露出的抗原组合是不同的,因为每个人的肿瘤突变谱不一样。不是药在做个性化,是你的身体在做个性化。

两种完全不同的哲学。Moderna 相信"我能替你选出最好的 20 个目标";复诺健相信"你的免疫系统自己会选,而且选得比 AI 更准"。

理论的优劣之争可以无限进行下去。但有一样东西没法争辩。

05
数据发在 Nature 主刊
VG161 的临床实证


理论说得再好,最终只有一种东西能让所有人闭嘴:数据。

VG161 的二期临床试验数据发在了 Nature 主刊。贾教授特意强调了"是主刊"——全球溶瘤病毒领域能上 Nature 主刊的论文屈指可数。

在肝细胞癌(HCC,全球第三大致死癌症)患者中,VG161 联合治疗组的中位总生存期(mOS)相比对照组延长了约 100%。更有说服力的是一个亚组——曾经接受过 PD-1 治疗超过 3 个月的患者。VG161 将这些患者的中位总生存期提升至 17.3 个月,对照组大约 6.5 个月。提升幅度约 268%

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

这组数据值得多想一下。这些患者已经用过免疫检查点抑制剂(PD-1),理论上免疫通路已经被"打开"过了,但肿瘤仍然在进展。VG161 在这个基础上又激活了免疫系统——这说明溶瘤病毒打开了 PD-1 没有打开的另一扇门。换句话说,间谍撕下了 PD-1 没能撕下的那层更深的伪装。

基于这组数据,VG161 在中国获得了 CDE 的突破性疗法认定,在美国获得了 FDA 的快速通道(Fast Track)和孤儿药(Orphan Drug)认定。历史上获得突破性疗法认定的药物,最终成功上市的概率超过 70%。

第二代产品 VG201 已经在路上了。基于贾教授的 TTDR 技术平台(Transcription-Translation Dual Regulation,转录翻译双重调控),VG201 的溶瘤活性比 VG161 强了一到两个数量级——10 到 100 倍。一期临床中,3 名末线(无药可用)胆管癌患者入组,其中 2 人存活超过 20 个月。同类患者典型生存期只有 4 到 5 个月。

癌症治疗正在被重写。但重写它的工具里,有一个名字被提到得最多却也最容易被高估:AI。

06
AI 与生物学的真实边界
算力不是瓶颈,数据才是


AI 在生物学中真正的卡脖子问题:不是算不了,而是"喂不饱"。

对谈转向 AI 的时候,贾教授给出了一个可能让 AI 圈不太舒服的判断。

他先肯定了 AI 的价值——Moderna 用 AI 筛选抗原就是一个例子。但紧接着补了一句:"这是 AI 的最初级的运用。"

真正的挑战不在于用 AI 做药物设计或抗原筛选,而在于用 AI 理解生物系统本身。贾教授给了一个类比:免疫系统的复杂度,不是"仅次于大脑"——是跟大脑一样复杂

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

为什么?三个原因。

概率性。"概率是生命科学的最基本的一个逻辑。"生物系统中的每一步反应都不是确定性的。你没法用"如果 A 则 B"的逻辑来描述一个免疫反应的过程。

多维度。 一个细胞的行为取决于它的基因表达、蛋白质组、代谢状态、微环境信号、时间维度——这是一个四维甚至更高维度的动态系统。

涌现性。 从分子到细胞,从细胞到组织,从组织到器官,从器官到个体——每一层都会出现上一层预测不了的新行为。

贾教授对"AI 万能论"的回应没有客气:"大家都说现在 AI 已经可以把疾病都能治疗,这是胡扯的。完全不懂生物学的人才会说这种话。"

但他真正想说的不是 AI 没用。恰恰相反——他指出了一个比"算力不够"更深、也更难解决的瓶颈:数据比算力更重要。

算力可以靠堆 GPU 解决。但生物学的训练数据——那些关于细胞在真实微环境中如何行为的数据——只能通过湿实验室(Wet Lab)一个一个做出来。贾教授用了一个自动驾驶的类比:你有再多的语言数据,车也没法上路。自动驾驶得在真实道路上用摄像头采集数据。生物学也一样——你得到细胞里去、到动物体内去、到临床中去,拿到真实的生物学数据。

在 AI 已经可以写诗、画画、写代码的今天,生物学提醒了我们一件事:有些知识,只有肉身世界里那些缓慢的、昂贵的、没法并行化的实验才能产出。 这是硅基智能暂时还跨不过去的门槛。

终章
把肿瘤变成慢性病

对谈最后,Indigo 问了一个所有人都想知道的问题:癌症能被征服吗?

贾教授的回答审慎但坚定:"如果你是说把肿瘤去掉、完全没有——这我觉得很难的。但是你可以带瘤生存,不影响你生活。"

Chris 更直接:"让肿瘤病人能够有更好的药,能够让他们活得更长,不让肿瘤变成绝症。"他给了一个预测:未来十到二十年内,他们有信心让人类的平均寿命延长十年。

INDIGO TALK / 免疫系统才是对抗癌症的终极武器 - EP44

两百年来,人类一直试图用更强的武器去"消灭"癌症——更猛的化学药物、更精准的分子导弹、更聪明的 AI 选靶。但这场对谈揭示的是一个更深的认知翻转:癌症的终局不是消灭,而是共存。不是用更强的外力去压制它,而是唤醒身体自己的免疫系统去管理它。

从三个 E 的认知重构,到溶瘤病毒这个"间谍"撕开肿瘤的伪装,到原位疫苗让身体自己完成个性化选择,再到 AI 在湿实验室面前的谦卑——这场关于癌症的战争正在进入新的阶段。武器不再是外来的化学分子,而是我们身体里那支与生俱来的免疫军团。

它一直都在。我们只是终于学会了怎么唤醒它。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

2026-03-02 09:00:24

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

年初五的“春节直播”必须在十五之前总结分享给大家,提前祝大家元宵快乐🏮

Indigo 在将近两小时里,把 AI 行业的技术前沿、投资逻辑和人生哲学三条线拧在一起,给出了一套名为"Rewired Index"的面向智能时代的完整投资框架。从 Deutsch-Braudel 分析模型到五层投资架构,从个人 AI Agent 的 Unix 哲学到 Claude 血洗 SaaS 市场,从 SpaceX 合并 xAI 的万亿级 IPO 预判到"技术的青春期"这个令人不安的隐喻——这场直播的信息密度堪比一场小型投资峰会。更难得的是,他在最后把话题拉回到人本身:在 AI 飞速进化的时代,人的"品位与洞察"才是最后的护城河。

时间戳

  • 00:00 开场
  • 01:54 快速回顾:AI 世界的一月地壳运动
  • 17:20 用 Deutsch-Braudel 框架看市场
  • 20:46 个人 AI Agent - OpenClaw
  • 28:10 Claude 血洗 SaaS 行业
  • 34:44 SpaceX 合并 xAI
  • 53:06 技术的青春期
  • 01:02:36 Rewired Index 投资框架
  • 01:14:27 AI 加速的投资组合
  • 01:39:44 魔法世界的麻瓜

01
快速回顾:AI 世界的一月地壳运动

2026年1月,AI 行业经历了一轮密集的结构性变化,从模型格局到个人工作流、从视频生成到世界模型,都在重新洗牌。

Indigo 上来先交代了背景:这是他 2026 年的第二场直播,原本只想聊投资,但因为一月份 AI 变化太快,直接升级成了"月末直播+投资分享"的超长版本。他半开玩笑地说,本来就准备了一些 PPT,结果发现一月份的内容根本塞不下,只好把投资分享也搬上来了。

一月份最重要的格局变化,是中美 AI 模型的分野越来越清晰。Indigo 用了一个直观的说法:闭源模型是美国的,开源模型现在是中国的。在闭源阵营里,Claude Opus 4.6 在 Agent 任务上独领风骚,Gemini 3.1 Pro 在基准测试和前端开发教育方面表现亮眼,GPT 5.2 紧随其后。在国产模型方面,Kimi、GLM 等持续迭代,大家都在等 DeepSeek V4。以 DeepSeek 为代表的国产模型在性价比上碾压式领先,API 价格只有美国闭源模型的五分之一甚至十分之一。这不是谁取代谁的问题,而是两半壁江山各有战场。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

更值得关注的是 Indigo 自己工作流的变化。他把所有"重工作流"都交给了 Claude 的 Cowork——数据表格处理、分析、深度思考输出、复杂数据处理。这不再是简单的问问题,而是真正把 Claude 当成一个协作伙伴来用。Super Grok 被定位为"情绪陪伴+最快新闻检索"工具——任何新闻事实的核实、短内容的快速制作,甚至在 Tesla 车上聊天,都靠它。Gemini Ultra Plan 则承担了长内容翻译和总结的工作,Deep Research 功能特别好用。三个 AI 工具各司其职,形成了他的日常工作三角。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

在视频生成领域,他对比了可灵 3.0 和 Seedance(即梦2.0)。可灵 3.0 在画质上进步明显,但 Seedance 在叙事连贯性上更胜一筹,做出来的拜年动画已经相当不错。不过,Indigo 认为视频生成还不是最让他兴奋的——真正让他眼前一亮的是 Google Genie 3。这是一个世界模型(World Model),不只是生成视频,而是可以交互。他做了一个大胆的预判:未来的游戏很可能不再需要传统的游戏引擎,而是由生成式世界模型实时创造。这意味着游戏行业的底层范式可能要被重写。

他还提到 Anthropic 的超级碗广告——一条黑白的、非常克制的广告片,和科技公司通常的浮夸风格截然不同。Indigo 觉得这很"Anthropic",很有品位。

02
用 Deutsch-Braudel 框架看市场

AI 时代最大的挑战不是信息不足,而是噪音太多。Deutsch-Braudel 框架提供了一套从三个时间尺度过滤信号的方法论,帮助投资者在恐慌和狂热之间找到锚点。

这是 Indigo 在上一次新年直播中提出的原创分析框架,这次他重点讲了"怎么用"。这个框架融合了两位思想家的理论:David Deutsch(大卫·多伊奇)的知识解释理论,和 Fernand Braudel(费尔南·布罗代尔)的历史时间层次理论。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

Braudel 把历史分成三层。事件层(Event Layer)是每天发生的新闻,股价的涨跌、某个公司发了什么产品、某个 CEO 说了什么话——这些信息来得快,去得也快,大部分是噪音。周期层(Cycle Layer)是制度和结构的变迁,比如一个行业的定价模式在改变、监管框架在调整、技术栈在重构——这些变化需要几个月到几年才能展开。长时段(Longue Durée)是缓慢的文明演变,比如软件这个行业是否会消失、知识生产的方式是否在根本改变——这些判断涉及十年甚至更长的尺度。

Deutsch 则提供了一个判断标准:什么是好的解释?他有一个概念叫 Easy-To-Vary——那些容易随意修改的解释通常是坏的解释。比如有人说"AI 明年就能取代所有程序员",你问他为什么是明年不是后年,他随便换个时间也能说得通,这就是一个 Easy-To-Vary 的坏解释。好的解释应该是"Hard-To-Vary"的,改动任何一个细节都会让整个解释崩塌。

把这两个理论结合起来,Indigo 给出了一个非常实用的分析工具。面对任何 AI 领域的重大事件,先问三个问题:在事件层,这件事的极端叙事是否 Easy-To-Vary?在周期层,背后有没有确实在发生的制度性变化?在长时段,这是否触及了某种根本性的逻辑转变?

他特别强调,AI 时代有一个独特之处:结构性变革的频次大大增加了。以前知识层面的变化非常缓慢,但 AI 可能会让知识层面产生快速变化——当 AI 攻破科研工作的时候,大量新知识会从解释层涌现出来,带来巨大的结构性变化。这就是为什么我们需要这样一个框架来快速识别信号,而不是被每天的新闻淹没。

03
个人 AI Agent——OpenClaw

AI Agent 的爆发不是靠复杂的长程规划,而是靠 Unix 哲学——每个任务尽量简单、直接、可靠,然后用 Agent 把它们串起来。OpenClaw 就是这种理念的产物,虽然很酷,但也带来了全新的安全隐患。

Indigo 花了不少时间讲 OpenClaw(也叫 Clawdbot)这个个人 AI Agent。这个项目的创始人是 Peter Steinberger,一位已经退休的奥地利程序员。这个产品的核心设计理念和 Unix 系统一脉相承,理解了这一点,就理解了当下 AI Agent 浪潮的底层逻辑。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

什么叫 Unix 哲学?就是每一个程序只做一件事,做好一件事。在 OpenClaw 的架构里,每一个 API 调用就像一条命令行命令——简单、独立、互不干扰。Agent 的角色就是那个写 Bash 脚本的人,把这些简单的命令串联起来完成复杂任务。它的系统架构说起来也不复杂:一个 Gateway 负责路由,一个 Memory 模块记住上下文,然后就是 Agent 循环——不断地观察、思考、行动。如果你熟悉 Claude Code 的底层逻辑,会发现它和 OpenClaw 的架构惊人地相似。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

Indigo 说得很直白:OpenClaw 的设计者认为长程 Agent 没有意义。不要试图让 AI 一次性规划一个复杂的20步任务,那太容易出错了。相反,每个步骤都要尽量简单直接可靠,Agent 训练得好,能够很好地做这些 API 调用,串起来之后自然就有了神奇的功效。没有复杂的编排框架,没有花哨的工作流引擎——每个 API 调用就像一条 Unix 命令,Agent 把它们串起来就像写 Bash 脚本。

关于那个在网上疯传的 Demo 视频——一只机械爪(Claw)在屏幕上自主操作电脑,打开浏览器、搜索信息、在终端里执行命令——Indigo 的评价相当生动:"终结者叙事"。你看着一个 AI 自己控制你的电脑,感觉就像终结者那部电影里天网觉醒的场景。

他自己装了一台 OpenClaw,后来因为安全考虑搬到了一台新买的 Mac Mini 上。他的评价是:"挺好玩的,挺有趣的,挺不安全的。"这个"不安全"不是随便说说——当 AI Agent 获得了更大的自主权,能够直接操作你的文件系统、访问你的网络、执行代码,安全边界就变得极其模糊。如果有人故意在网页里嵌入恶意指令,Agent 会不会被引导去干坏事?这个问题现在还没有好的答案。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

Indigo 还做了一个重要的行业预判:手机厂商会推出系统级的 AI Agent,直接侵蚀 APP 的生存空间。以后流量分发不由搜索引擎分发,也不由社交网络分发,而是由手机界面上的 AI 来分发。这对华为、小米、OPPO 这些手机厂商来说是巨大的机会,但对大量 APP 来说则是生存威胁。在直播最后他还提到,就在前两天 OpenAI 把 OpenClaw 给收购了——这个消息本身就说明了 Agent 赛道有多热。

04
Claude 血洗 SaaS 行业

Claude 正在系统性地摧毁传统 SaaS 的商业模式。未来的 SaaS 将被压缩为一个极简公式:AI Agent + Database。逻辑层和展示层都会被 AI 接管,只有数据层和 Agent 层能留下来。

如果说 OpenClaw 是个人层面的 Agent 革命,那 Claude 对 SaaS 行业的冲击就是企业层面的结构性地震。Indigo 提到一个很有画面感的对比:去年 OpenAI 发什么功能、和谁合作,相关股票就暴涨;但 Claude 一出手,相关行业的股票就暴跌。他半开玩笑说"这两个公司真的是冤家"。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

数据不会说谎。他展示了一组 SaaS 公司的市值变化——几乎所有主要 SaaS 公司都在暴跌,唯一逆势上涨的是 Zoom。为什么?因为 Zoom 是 Anthropic 的投资者。这个细节非常有意味。Claude Code 发布的安全检查功能,直接把美股上的网络安全公司都"干趴了"。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

而 Anthropic 自己的收入增长则令人咋舌:2026年初单月收入达到14亿美元,而仅仅一年前这个数字还是1亿左右——10倍的年增长。Indigo 认为这是当前市场中最强烈的反弹信号,说明应用层的变现速度正在加速。整个行业的收入增长是由 Token 消耗驱动的,AI 模型公司就像发电厂,所有软件公司都是用电的。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他提出了一个极其精炼的公式:SaaS = AI Agent + Database。传统 SaaS 有四层——数据层、逻辑层、展示层和交互层。AI 来了之后,逻辑层被 Agent 取代了(你不需要写业务逻辑,Agent 自己能推理),展示层被 Agent 取代了(你不需要精心设计 UI,Agent 直接用 API 操作就行了,所以没有 UI 的软件将会崛起)。最后只剩下两层:Data(你的核心数据资产)和 Agentic AI Layer(调用这些数据的智能层)。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

用他的 Deutsch-Braudel 框架做当场分析:在事件层,市场上"AI取代一切""SaaS公司 80% 要消失"这些极端叙事是典型的 Easy-To-Vary 的坏解释,大家过于恐慌了。在周期层,部分确认——SaaS 行业的定价模型确实面临重构,按人头收费、按坐席收费的模式正在瓦解,但这个过程可能需要3-5年,企业有惰性,有迁移摩擦。在长时段,"软件行业走向衰落"这个判断是根本性错误的。Agent 本身就是软件,只不过从人类写代码变成了 AI 生成代码。软件不会消失,只是软件的生产方式变了。数据和基础设施的价值在上升,应用和逻辑层的价值在被压缩。

但随之而来的是全新的安全和治理问题。当 Agent 不需要 UI 就能直接操作企业系统时,攻击面变得前所未有的大。传统的安全防护是基于"人通过界面操作"这个假设设计的,Agent 时代需要完全不同的安全范式。

05
SpaceX 合并 xAI

2026 年最大的 IPO 将诞生于 SpaceX 与 xAI 的合并,Elon Musk 正在构建一个横跨数字世界和物理世界的超级帝国。方向正确,但他过度压缩了时间表。

Indigo 认为这是今年最大的事件——xAI(估值约 2,300 亿美元)与 SpaceX(估值约 8,000 亿美元)合并,合并后新实体估值 1.25 万亿,IPO 可能冲到 1.5 万亿。在 Elon Musk 的大计划里,xAI 负责数字世界的 Agent,Optimus 负责现实世界的 Agent,两套系统互相配合。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他详细拆解了 xAI 合并后的组织架构。xAI 现在分成四大条线:Grok Main(主力大模型)、Voice(语音)、Coding(编程)、Imagine(图像生成),另外还有一个极具野心的项目叫 Macrohard——直接对标微软,要做 AI 原生的操作系统和办公套件。SpaceX 在这个架构中扮演"现金牛"的角色,就像 Google 和 Meta 的广告收入养活了它们的 AI 研究一样,SpaceX 的商业发射收入为 xAI 的烧钱提供了稳定的现金流。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

关于 Optimus 机器人,Indigo 拆解了三大核心挑战。第一是手——人类的神经网络给手分配了60%-70%的神经密度,所有精细动作的协调性都在手上,这是为什么 Optimus 非常注重手部设计。中国也有很多灵巧手公司在做,但像宇树这样的机器人是没有手的。第二是智能——需要把 FSD(自动驾驶视觉系统)和 Grok(通用大模型)合在一起,在终端运行。第三是量产——天天做 Demo 很容易,但量产同时控制成本,这是极大的挑战。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读
当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

更有意思的是 Tesla 车队算力的利用。xAI 计划用 Tesla 车队的 AI5 芯片做分布式计算,拿来训练 Agent,然后给车主付钱。这种"闲置算力变现"的模式确实是 Elon Musk 式的奇思妙想。更远的规划更加科幻——在月球建基地,用电磁轨道炮发射数据中心组件到太阳轨道的拉格朗日点,利用不间断的太阳能供电建设太空数据中心。这条路径如果走通,人类文明就迈向了卡尔达肖夫二型文明。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

但 Indigo 并不是无条件看好。他用自己的 Deutsch-Braudel 框架做了当场判定:Elon Musk 的方向没问题,都是 Hard-To-Vary 的好解释——物理世界需要智能体、太空是终极算力天花板的答案、分布式计算在经济上说得通。但他过度压缩了时间表。Indigo 的判断是 3-5 年不可行,10 年左右更现实。真正的瓶颈不是技术瓶颈,而是社会摩擦——Elon Musk 自己进白宫不到一个月就已经显现出制度摩擦有多大了。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

06
技术的青春期

我们正处于 AI 进化速度和社会消化速度之间的巨大落差中。这个矛盾期就是"技术的青春期"——力量已经来了,但智慧还没跟上。
当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

Indigo 用了一个令人印象深刻的进化图谱:2024 年我们是提示词工程师(Prompt Engineer),2025 年我们是 Vibe Coder,2026 年我们是 Master of AI Agent,2027 年呢?——Unemployed(失业了)。他马上补了一句"不是制造焦虑,我们提供一点笑料"。但笑话背后的逻辑是严肃的。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

Anthropic 的 CEO Dario Amodei 在最新的博客中给出了一个判断:AI 替代大量白领工作的可能性是90%,一半的概率在两年之内就能达到。Indigo 自己也认为这个判断"可确认"。他描绘了一个颇具画面感的场景:CEO 是 Claude,CTO 是 Claude Code,COO 是 Cowork,下面全是 Skill(技能模块)。整个团队都是 Agent。

Dario 还提到了一个概念——Country of Genius in Datacenter(数据中心里的天才国度)。想象一下,在数据中心里运行着一个由百万级 AI Agent 组成的"国家",每个 Agent 都有博士水平的智能。这些 Agent 可以 7×24 小时不停工作,彼此协作完成科研、工程和创造性任务。如果在三年内实现了这个目标,核心智能层公司的价值会急剧上升,因为所有利润都是它们产生的。

数据中心的扩张也带来了现实世界的摩擦。Dario 透露,四年内数据中心耗电量将从 15 GW 增长到300GW——这个数字正好和 xAI 在 SpaceX 会上提到的太空数据中心目标吻合。每 GW 的建设成本在100亿到150亿美元之间,要建到 300 GW 就需要投入 4.5 万亿美元。这是一个令人窒息的数字,但如果AI行业年收入能达到万亿级别,这些投资就能还得起。

但 Indigo 接着话锋一转:放下杂念,不要焦虑,因为焦虑没用,AI 进步不等你。他的建议是——潜心提升自我,等待超级智能的降临,让自己更有"人感"。AI 进化非常快,一天等于人间一个月,但社会还是肉身运转的复杂结构,不可能马上改变。这个矛盾会撕裂社会,产生更多的社会运动和社会分裂。监管适应性改革以 10 年为单位运转,这个快不起来。2026 年已经开始显现这些征兆了。

他把这个阶段比作"技术的青春期"——就像一个十几岁的孩子,身体已经长成了大人,但心智还没有成熟。AI 的力量已经到了,但人类社会还没有准备好如何与之共处。这个过渡期,大概在 2026 - 2030年之间,会非常痛苦。

07
Rewired Index 投资框架

AI 不仅仅是工具,它是未来的劳动力市场。Rewired Index 是一套五层架构的投资分析体系,用 LxT 双维度模型配合信号灯系统做动态决策。它不是一个交易策略,而是一个配置方法。

这是整场直播信息密度最高的部分。Rewired 是 Indigo 自己做的品牌,名字取自"重新连接"(Rewire)的含义——AI 时代我们需要重新连接自己与世界的关系。他正在写一本同名的书,虽然还没完成,但 AI 的进步已经在帮他加速这个过程了。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

Rewired Index 的核心是一个五层架构(L 维度),从底层到顶层的配置逻辑是这样的:

第一层 L1:物理基础设施层。半导体、能源、金属——"卖铲子"的角色。这是最底层也是最确定的。没有电就没有算力,这个逻辑极其简单,也极其坚固。

第二层 L2:数字基础设施层。包括算力工厂 NeoCloud、数据资产,以及他称之为"Neo Financial"的新数字金融基础设施。他在这里说得比较隐晦——"大家可能猜到是什么了,我也不方便说太多,毕竟还在微信直播里面"——暗指加密货币和稳定币领域。NeoCloud 这些公司是用来"生产数据"的,是整个 AI 生态的基建。

第三层 L3:核心智能层。这是整个框架的心脏。他定义了一种公司类型叫"全栈 AI 公司"(Full Stack AI),就是从自研芯片到模型到应用都做的巨头。目前符合条件的核心公司是 Google、Meta、Tesla、Apple——他口中的"老三样"(虽然是四家)。越往中间确定性越高,因为这些公司既有数据飞轮,又有模型能力,还有分发渠道。

第四层 L4:动态残差层(应用层)。可升可减、可多可少。包括 AI 原生企业、机器人、自动驾驶、AI 生物、先进制造、DeFi 等。他坦言目前应用层选股不多,还没看到特别好的应用层公司。

第五层 L5:前沿探索层。量子计算和太空经济。他认为量子计算已经到了实用性的门槛口,比核聚变实用得多。SpaceX 今年上市后,太空经济会非常值得关注。越往两边走确定性越低,因为这是探索。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

除了 L 维度的五层架构,还有一个 T 维度来决定"怎么买":T1 是核心持仓,T2 是增长引擎,T3 是主题配置(某个时期出现了特定主题就参与),T4 是投机。L 和 T 交叉形成一个二维表格,任何一支股票都可以被映射到这个表格中的某个位置。他甚至让 Claude 帮他做了 AI 策略,自动把每支股票按照 LxT 模型来分析和打分。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他用 Google 做了一个示范:Google 在 Rewired 框架中是覆盖面最广的公司之一,从 L1 到 L5 都有业务。L1 有自研芯片 TPU、海底光缆、能源采购;L2 有搜索引擎数据、Maps 数据、YouTube 数据、Android 终端数据、Google Cloud;L3 有 DeepMind 和 Gemini 模型团队;L4 有 Google Search、Workspace、YouTube、Waymo 自动驾驶;L5 有生物科研、无人机、Quantum AI 的 Willow 芯片。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

配合五层架构,他设计了一套信号灯系统,包含三类信号。第一类是常规经济数据信号——GDP、就业数据这些美股投资者最看重的指标。第二类是市场情绪信号——恐慌指数(VIX)、投资者情绪调查、期权隐含波动率等,社交网络时代市场情绪极不稳定,需要被监测。第三类是 Rewired 独有的"AI 结构性健康度"信号——各大云厂商的 CAPEX 投入、数据中心收入、AI 训练成本下降曲线。如果哪一天大公司的 CAPEX 投入开始减少,那就是一个重要的预警信号。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

信号灯分四种颜色:绿灯正常可以冲,黄灯有分歧需要谨慎,橙灯数据走弱需要防守,红灯恶化需要撤退。他计划把这套系统程序化,让 Agent 来自动监测和判断,因为"我做可能不精准"。

整个 Rewired Index 的设计理念有一个很有意思的特点:人看上去有点复杂,但对 AI 来说它会很好理解。所有模型都是为了 AI 技能设计的,让它好操作、好打分。这背后的思路是——未来的投资分析不是人去看图表,而是 AI Agent 帮你做研究、做配置、做仓位平衡,人只负责给策略和做最终决策。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他用黄仁勋的话来定调:AI 要用 100 万亿来替代现在 1 万亿的软件市场。Jensen Huang 说的是一个未来的劳动力市场 —— AI 就是下一代的劳动力。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

08
AI 加速的投资组合

投资配置要围绕 Rewired Index 的五层架构展开,核心仓位集中在 L2 和 L3,同时关注宏观政策变化带来的结构性机会。AI 是良性泡沫,我们仍处于范式转型的爬坡阶段。

在具体的投资组合方面,Indigo 首先聊了宏观环境。Kevin Warsh 大概率会成为新的美联储主席,他是华尔街的关键联络人,对亚太的信息经济比较熟悉,也是对现有美联储政策批评最多的人。他的核心主张是:限制美联储在金融市场中的过度决策,减少资产负债表规模,推动更透明的货币框架。简单说,旧范式已经过时了——传统美联储就在干两件事:抑制通胀和资助僵尸企业,相当于一个减速剂。但现在 AI 作为通缩力量会提高效率、降低成本,需要一个新的美联储来适应这个"AI 共和国"。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

不过 Indigo 对 Kevin Warsh 的评价是"一半一半"。他用 Deutsch-Braudel 框架分析指出,Warsh 同样犯了过度压缩时间表的错误——美联储这类机构本身就是用来让社会发展变慢一点的,你得给低效的人赢得更多时间,不然社会就撕裂了。Warsh 上台后很可能会加速美国的撕裂。但既然这已经是事实了,投资者只能顺势而为。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他的策略核心是降息利好加上支持 AI 创新——利率要降低,这迎合了川普政策的思路。在这个背景下,他展开了具体的配置逻辑。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

BTC 会做基础配置,用 ETF 方式购买,放在 L2 数字基础设施层的前面。他说得很直接:"我肯定会做基础配置的",对 BTC 有长期信心,只是时间问题。

NeoCloud 和基础设施公司继续看好。在物理基础层(L1)增加了内存、存储、光通讯互联的配置比重。光互联信号被 Dario 的最新分享强化了——GPU 集群的互联带宽需求在爆炸性增长,黄仁勋在 GTC 上发布的下一代芯片组网方案就是用光通讯的。这意味着相关公司(如光通讯、定制芯片 Marvell 等)仍有增长空间。

苹果是一个新增的重要配置。他在苹果跌到250左右时入手,逻辑有三层:第一,苹果在 AI 时代有杠杆作用——当其他公司出现风险时资金会回流苹果,它在核心层里有"缓冲"的作用。第二,苹果终端算力优势会随着开源小模型性能提升而越来越有价值——当更小更高效的模型能在手机和电脑上本地运行时,苹果的芯片和设备整合能力就是独特的护城河。Mac Mini 因为边缘 Agent 的火爆直接卖爆了就是一个信号。第三,他预判苹果 2027-2028 年会在 AR 眼镜领域有大动作。

Cloudflare 在暴跌后值得关注。他认为 Cloudflare 在 Agent 时代的边缘计算(Edge Computing)领域是重要的竞争角色。当 Agent 越来越多地在边缘运行,Cloudflare 的全球网络基础设施就有了新的价值。

在核心智能层(L3),四家核心公司是 Google、Meta、Tesla、Apple。应用层(L4)选股很少,他坦言还没看到特别好的应用层公司。前沿探索层(L5)目前只有太空经济(SpaceX 即将上市),量子计算还需要一点时间。

关于泡沫问题,他重申了去年11月"智变时代2"分享中的判断:最大的问题不是有没有泡沫,而是变革产生的收益能不能还泡沫欠下的债。他的结论是——AI 是一个良性泡沫,我们仍处于范式转型繁荣期的爬坡阶段,但前方的路很颠簸,波动会加大。

他还展示了自己团队过去两年的一级市场投资:投了 xAI、Anthropic、Cohere 三家大模型公司(L3层),Together、Lambda、Crossbar 等算力基础设施公司(L2层),Electronix 机器人和 Crista 客服等应用层公司(L4层),以及 Science Content 光量子计算和 Rocket Lab 太空(L5层)。整体投资金额 3,600 万美金,现在估值已经过亿。他正在准备一个新的二级市场基金,由 Rewired Index 指导配置,由 AI Agent 驱动研究、配置和仓位平衡。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读
当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他对未来三年的投资节奏给出了一个很清晰的判断:2026-2028年仍然是投 L3 和 L2 的最好时机,因为基础设施和核心智能层的发展速度最快。应用层的爆发可能要再等一到两年。

09
魔法世界的麻瓜

AI 革命会把人类社会带到一个魔法世界,不会用 AI 的人就像哈利波特里的麻瓜。但真正的出路不是拼命学技能,而是找到人类不可替代的东西——品位、洞察、目标感。技能易学,想法难求。

Indigo 在直播的最后,把话题从投资和技术拉回到了人本身。他引用了自己1月30号发的一条思考:这轮人工智能革命会把人类社会带到一个魔法世界。那些不会用 AI、没有 AI 意识、没法与 AI 共生的人,就像魔法世界里面的麻瓜一样。看过哈利波特的人都知道,麻瓜就是不会魔法的普通人类,他们甚至看不见魔法世界的存在。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

但他随即给出了一个出人意料的建议:不是去学更多技能。他说得很直接——现在太多人在网上分享各种 AI 教学,但他们只会贩卖焦虑和卖课。除非你是做研究或做自媒体的,否则真的没必要天天研究这些工具。你还不如立个项目,在项目过程中把工具学会了。这是一个更好的办法。

因为很多人只看到了 AI 外在的助理功能——帮你写文案、做总结、干 PPT,让自己在公司里或他人眼里显得很能干。这些表面上的优势最终会失去价值。AI 迟早会让写文案、做总结、干 PPT 这些事情没必要了,因为大家出来的都一样。真正应该做的,是用 AI 帮助自己深度学习、独立思考、建立认知结构。

人应该专注于人类不可替代的优势:品位和洞察。他在自己的社群里天天强调这两个词。优先考虑好奇心驱动的问题解决,而不是传统的技能习得——因为 AI 会让绝大多数人不需要掌握特定的编程语言或工作流程。技能易学,想法难求。你要当好 AI 的老板,实现有趣的想法。

他用自己的例子来说明:他现在设计工作流还不如 Claude 帮他想的,"我没他聪明"。但他的直觉比 Claude 好,他知道自己有目标、要做什么,而 Claude 没有目标。AI 缺的是真正属于自己的欲望——没有恐惧、没有自驱能力,所以创造不了属于自己的代理权(Agency)。

这引出了他在直播前发的那条 X:没有创业者会担心 AI 抢他的工作,因为创业本身就是做不可能的事情。AI 一旦你创业了,它就是你的盟友。你想的就是"我要多用 AI,少用人类"。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

最终的叙事收束在一个宏大但朴素的判断上——他引用了一句话:首先职业会被摧毁,然后岗位会被摧毁,最终被取代的是"为别人的目标工作"这件事情本身。再过 30 年左右,上世纪五六十年代创立的格子间白领文化会全部消失掉。每个人都将成为创业者。不是因为你想创业,而是因为"为别人的目标工作"这个选项正在从菜单上消失。

当 AI 一天等于人间个月 / INDIGO 2026 春节直播 + Rewired Index 投资框架解读

他分享了自己正在做的三个项目来践行这个理念:第一是用 AI 加速完成 Rewired Book 的写作,在 Claude Cowork 里重建结构,用 Skill 帮他研究主题;第二是开发 Rewired Agent,让 AI 做自动研究、自动配置、自动仓位平衡的二级基金管理工具;第三是用 OpenClaw 搭建个人知识系统——把所有学习和思考都交给它,让它帮自己做反馈式学习(Reflection),就像一个外脑。

最后一句话,是给所有在春节假期还能看到直播结尾的人的——"能坚持到现在的人很厉害,我也讲不动了。"近两个小时的分享,从技术前沿到投资框架到人生哲学,这大概是一个在 AI 浪潮中真正下场游泳的人,能给出的最诚实也最完整的分享了。


延伸思考

Indigo 这场直播触及了一个很少有人正面回答的问题:在 AI 以"一天等于人间一个月"的速度进化时,投资者和普通人应该如何安放自己?他的答案既不是盲目乐观——他反复强调"前方路很颠簸",用 Deutsch-Braudel 框架拆解每个极端叙事的水分;也不是贩卖焦虑——他明确说"焦虑没用",技能学来学去不如立个项目直接干。

他给出的是一种结构性思维:用 Deutsch-Braudel 框架过滤噪音,用 Rewired Index 的五层架构做配置,用 LxT 双维模型给每支股票定位,然后放下杂念,去做只有人类才能做的事——有目标、有品位、有好奇心地活着。

更深层的启示可能在于他对"Connection"的强调。在他的投资分析框架中,未来的公司价值由三样东西决定:Model(模型能力)、Context(行业知识和数据)、Connection(人类建立的连接和网络效应)。前两个 AI 都能做,但 Connection 这个东西只能人做。社交网络和社群,人类建立的连接,以后会越来越有价值。这也是为什么他一直在做社群,一直在做直播——在 AI 能做一切的时代,人与人之间真实的连接反而成了最稀缺的资源。


精华收获

这场直播传递了几个值得反复咀嚼的洞察。

第一,AI 行业当前的格局是"闭源归美国、开源归中国",两者各有战场而非谁取代谁。

第二,判断 AI 事件的影响要用 Deutsch-Braudel 框架区分三个层次——事件层的恐慌通常被夸大,周期层的变化需要 3-5 年才能展开,长时段层面的逻辑才是投资的锚。

第三,SaaS 行业将被压缩为"AI Agent + Database"的极简公式,逻辑层和展示层都会被 AI 接管。

第四,投资配置的核心在 L2(数字基础设施)和 L3(核心智能层),2026-2028 年仍然是投这两层的最佳窗口期,应用层的爆发还需等待。

第五,AI 是良性泡沫,关键问题不是有没有泡沫,而是变革的收益能否偿还泡沫的债务。

第六,未来公司价值由 Model + Context + Connection 三要素决定,人类建立的连接和网络效应将越来越有价值。

第七,AI 最终取代的不是某个职业,而是"为别人的目标工作"这件事情本身——技能易学,想法难求,培养品位、洞察和自驱力,比学会任何具体工具都重要。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

2026-02-23 13:19:01

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

这期 Indigo Talk 邀请了来自 UBC Trusted and Efficient AI(TEA)Lab 的李霄霄教授在温哥华面对面深聊。霄霄的研究背景横跨耶鲁、普林斯顿、UBC 和 Vector Institute,他从神经科学转向 AI 系统研究的经历,恰好让他拥有了一个独特的双重视角:用人类认知的局限去理解 AI 的瓶颈,再用解决人类局限的方法去提升 AI 的能力。

这场对话涵盖了 Agent 的定义与演进、单智能体与多智能体的效率之争、AI 安全与失败容忍、认知萎缩的隐忧,以及教育在 AI 时代的根本转型——信息密度极高,欢迎收听。

Apple Podcast & Spotify 播客| 小宇宙播客

嘉宾

李霄霄(UBC 教授 / TAE Lab 负责人)

Indigo(数字镜像博主 /  独立投资人)

时间戳

  • 00:01:34 从耶鲁到 UBC:一位 AI 研究者的 12 年
  • 00:08:25 Agent 到底是什么:从 1995 年教科书到 Anthropic 的定义
  • 00:15:00 人类认知的局限与 AI 的平行困境
  • 00:23:00 硅基 vs 碳基:两种智能的根本差异
  • 00:26:00 单 Agent 加技能 vs 多 Agent 协作:效率之争
  • 00:34:00 AI 的组织形态:不必模仿人类
  • 00:46:00 AI 失败容忍与安全设计
  • 00:53:00 外骨骼隐喻:当 AI 让大脑「萎缩」
  • 01:02:00 提效 vs 拓界:AI 革命的两个维度
  • 01:10:11 90-90 法则的警醒

当我们把 Agent 挂在嘴边的时候,有没有想过这个概念其实早在 1995 年的教科书里就被定义过了?当我们急于让 AI 掌握更多技能时,有没有意识到人类大脑在面对过多选项时会瞬间崩溃——而 AI 可能也逃不过类似的命运?

01

从耶鲁到 UBC:一位 AI 研究者的 12 年

加拿大在这一轮 AI 革命中的学术贡献被严重低估,从 Hinton 到 Sutton,从深度学习到强化学习,研究的火种很多都点燃在加拿大的大学里。

霄霄教授的学术轨迹颇具代表性。他在耶鲁大学的博士研究聚焦于神经科学、神经影像与人工智能的交叉领域,2020年毕业后前往普林斯顿大学做博士后,研究方向转向机器学习系统、分布式运算以及 AI 的安全与隐私问题。2021年,他加入 UBC(英属哥伦比亚大学),领导 Trusted and Efficient AI Lab——简称 TEA Lab。去年他评上了副教授,同时也在 Geoffrey Hinton 创办的 Vector Institute 担任研究员,学术休假期间还在谷歌做访问研究员。算下来,他做 AI 研究已经整整 12 年了。

TEA Lab 的名字就透露了它的核心使命:不管底层 AI 技术如何迭代,提高 AI 的可靠性和效率永远是一个值得深耕的课题。在 Pre-GPT 时代,团队关注的是卷积神经网络在图像分类、语言翻译等任务中的效率和安全性问题;到了大模型时代,这些问题非但没有消失,反而变得更加紧迫和复杂。

Indigo 特别提到了一个经常被忽视的事实:这一轮 AI 爆发的学术根基在很大程度上来自加拿大。多伦多大学的 Hinton 教授是深度学习之父,阿尔伯塔大学有写出 The Bitter Lesson 的 Richard S. Sutton,他也在与 Google 的 Gemini 团队紧密合作,蒙特利尔的 McGill 大学也贡献了大量 AI 人才。正如 Indigo 所说——加拿大负责做研究,美国负责创业赚钱。霄霄教授笑着回应,UBC 这边的 AI 研究者确实比较年轻,但假以时日,希望也能涌现出几位大佬。

02
Agent 到底是什么:从 1995 年教科书到 Anthropic 的定义

Agent 并不是一个新概念,它的学术定义早在30年前就已经明确;真正区分 Chatbot、Workflow 和 Agent 的核心,在于自主规划(Planning)能力。

2025 年,Agent 成了科技圈最火的词。从 Manus 到各种开源产品,似乎一夜之间所有的 AI 应用都贴上了 Agent 的标签。但霄霄教授提醒我们,从学术角度来看,Agent 早就不是什么新概念了。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

他引用了 Peter Norvig 和 Stuart Russell 在 1995 年出版的经典教科书《Artificial Intelligence: A Modern Approach》中的定义:Agent 是一个可以感知环境、根据环境自主决策、以最大化目标的系统。这个定义与后来 Richard Sutton 在 Alberta Plan 中提到的「感知环境、自我进化」一脉相承。在大模型出现之前,这就是学术界公认的 Agent 定义。

不过,目前市场上对 Agent 的理解要宽泛得多。一些简单的对话链路或者工作流(Workflow),也被贴上了 Agent 的标签。霄霄教授引用了 Anthropic 对 Workflow 和 Agent 的一个非常清晰的区分:Workflow 是大模型和工具在既定路线下进行交互的系统;而 Agent 则具备自主 Planning 和进化的能力,不仅能使用工具,甚至能创造工具。

这个区分至关重要。Indigo 从个人使用体验出发,直言在 Planning 能力方面,Anthropic 的 Claude 是他用过的最好的。Claude 不只是能理解你在说什么,还能抓住你的想法,做出合适的计划,高效地执行,遇到问题还会自我反省、退回来修改计划。用 Indigo 的话说,它已经有了「一点点元认知能力」——知道自己在干什么。霄霄教授也观察到了同样的现象,他分析这可能是因为 Anthropic 从一开始就在做 Agent 的基础建设。当然,其他模型也有各自的长处:Gemini 速度极快,OpenAI 的 Codex 写代码能力提升显著,国内的千问、Kimi、MiniMax 等也都在快速追赶。

但核心问题始终不变:真正让 Agent 成为 Agent 的,是自主规划能力——能够根据用户的目标,自主地拆解任务、分配资源、执行并自我纠正。

03
人类认知的局限与 AI 的平行困境

人类认知有明确的局限——工作记忆容量有限、注意力有限、技能容量有限;而 AI 虽然在很多方面比人类强大,却也展现出类似的瓶颈。通过研究人类认知局限的解决方案,可以反过来提升 AI 的能力。

这是整场对话中最令人意外的一段。霄霄教授从认知心理学出发,提出了一个深刻的类比框架:人类认知的局限,或许可以帮助我们理解 AI 为什么也会「犯傻」。

他提到了一个经典的认知科学理论——人类的认知能力是有限的。对于自然界中的复杂系统来说,人类大脑所具备的理性能力,远远不足以解决那些需要穷举所有可能性的问题。最直观的例子就是下国际象棋:理论上存在一个最优解,但人类大概只能往前看3到5步,而无法计算每一步的最终胜率。

更有趣的是 Hick's Law 实验。研究者给受试者一个灯阵列,让他们在灯亮的时候按对应的按钮。当灯的数量越来越多时,人的反应时间急剧增长,准确率也大幅下降。这揭示了人类大脑一个核心的物理限制:工作记忆(Working Memory)的容量是有限的,当任务超过这个容量时,整个认知系统就会瞬间崩溃。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

那 AI 呢?Indigo 的直觉反应是:AI 不会有这个问题啊,加算力就好了,开 1000 个实例同时干活。霄霄教授对此给出了一个 Yes and No 的回答。他的研究发现,当你给一个 AI Agent 配备越来越多的 Skill 时,它的表现并不会无限提升——大概在 20 到 30 个 Skill 的时候,它能达到最佳性能;再往上加,性能就会饱和,甚至下降。

这个发现意味着,AI 虽然在很多维度上超越了人类的认知限制(比如 Transformer 的多头注意力机制可以同时关注所有信息),但它也有自己的物理瓶颈——上下文窗口就是它的「工作记忆」,当 Context 变得非常长的时候,AI 也会 Lost in the Middle。

Indigo 在这里做了一个精彩的类比:人类大脑的注意力是有限的,一次只能关注几件事;Transformer 虽然用多头注意力同时关注所有事情,但上下文就是它的物理限制——就像内存永远有物理上限一样。

04
硅基 vs 碳基:两种智能的根本差异

虽然我们习惯用人类认知来类比 AI,但硅基智能和碳基智能在底层原理上完全不同——AI 可以被设计、可以快速复制、可以通过暴力堆叠算力突破单体限制。

霄霄教授在这里做了一个重要的纠偏。虽然用人类认知来理解 AI 是一种有用的研究方法,但他强调不能把这种类比推到极端——硅基智能和碳基智能的底层原理就是不同的。

人类大脑使用神经电信号传递信息,经过数百万年的自然选择进化而来;AI 的核心是 Transformer 架构下的生成网络,用数学运算模拟智能。人类大脑在能量效率上远超 AI——看两个例子就能理解一个概念,而 AI 需要海量数据训练。人类的泛化学习能力也更强,这种「潜移默化」的学习方式是 AI 目前还在追赶的。

但硅基智能有一些碳基智能完全不具备的优势。第一,它可以被设计——人类可以主动给 AI 附加外界能力,把它打造成一个极其强大的系统,而人类目前无法被这样设计。第二,它可以快速复制——只要有足够的算力和能源,你可以瞬间生产出成千上万个完全相同的智能体。第三,它可以自我进化——Self-Evolving 算法让 AI 有了自主迭代的能力。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

Indigo 做了一个生动的总结:在地球上,一个新的智慧物种已经诞生了,它进化的速度远超碳基生物。虽然单体能量效率不如人脑,但硅基智能可以无限「插电」,通过暴力堆叠算力和快速复制,产生完全不同形式的智能。这个事实虽然听起来有点让人不安,但确实是我们必须面对的新现实。

05
单 Agent 加技能 vs 多 Agent 协作:效率之争

在串行任务中,单个 Agent 加上适当的 Skill 往往比多 Agent 协作更高效,因为沟通成本和错误累积是多 Agent 系统的主要瓶颈;但复杂任务中的角色分离和并行处理仍然需要多 Agent 架构。

这是霄霄教授近期最引人注目的一项研究「When Single-Agent with Skills Replace Multi-Agent Systems and When They Fail」。他的团队发现,在特定类型的任务中——尤其是那些可以串行处理的任务——给一个 Agent 赋予多种技能,往往比让多个 Agent 协作更快、更好。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

为什么?原因其实和人类组织面临的问题如出一辙。当你和其他人合作完成一件事时,沟通本身就会产生信息损失。如果一个人在自己的能力范围内就能完成这件事,省去沟通环节反而效率更高。霄霄教授用做菜来打比方:如果一个人既会切菜又会炒菜,那他一个人做一道菜可能比两个人流水线配合更快,因为单人操作时上下文是连续的,他可以灵活优化自己的工作流。

多 Agent 协作还有两个额外的代价。第一是 Token 成本——Agent 之间的每一次沟通都需要消耗算力和 Token。第二是错误累积——在串联的架构中,只要有一个 Agent 出错,这个错误就会传导到所有下游的 Agent 上面去。

但这并不意味着多 Agent 架构没有价值。霄霄教授严谨地指出,他的研究聚焦的是特定类型的串行任务,并不覆盖所有场景。在两种情况下,多 Agent 协作仍然是必要的。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

第一种是任务本身需要角色分离。比如 Anthropic 最近发布的 Agent Team 演示中,16个 Agent 分工合作完成了一个 C 编译器,并用它重新编译了 Linux 内核。在这种复杂的软件工程任务中,写代码的人和审核代码的人必须是分开的——就像一个人不能既当裁判又当选手。因为单个 Agent 的记忆空间无法隔离,它无法在同一个上下文中既是生产者又是审核者。

第二种是任务可以被有效地并行分片。Indigo 分享了自己使用 Claude Code 的经验:当他给 AI 下达一个编码转码任务时,AI 会自己判断是否要启动 Sub Agent,把任务分成五片让五个 Agent 同时处理。更聪明的是,AI 会动态决定什么时候分包、什么时候自己做——就像一个出色的人类调度指挥。

06
AI 的组织形态:不必模仿人类

当前的多 Agent 架构过度模仿了人类的组织层级,但 AI 可能会发展出完全不同的协作模式——像鸟群或蚁群那样,无需 Leader 也能高效运作。

这段讨论特别有启发性。Indigo 首先抛出了一个观察:人类组织是一个极度冗余和低效的系统,因为人要休息、有情绪、有自尊心(EGO),这些都会在组织协作中产生巨大的摩擦。所以人类社会发展出了高层、中层、执行层这样的分层管理结构。

但对 AI 来说,这套逻辑可能完全不适用。霄霄教授提出了一个更具前瞻性的视角:他对当前 AI Agent 过度模仿人类组织架构持保留态度。AI 的思考路径可能和人类完全不同,它的组织方式也未必需要照搬人类的层级分工。

他提出了一个特别有画面感的替代模型:Swarm Learning——就像鸟群飞行一样。鸟群没有 Leader,单只鸟的智能也非常有限,但一群鸟在一起飞的时候,却能形成极其高效的组织形态。蚂蚁也是如此:单个蚂蚁很傻,也没有指挥官,但蚁群通过简单的职能分工(搬食物、喂养蚁后、守卫)和某种涌现的默契,就能表现出惊人的集体智能。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

也许未来的多 Agent 系统不需要一个中央调度员,而是通过某种去中心化的协作机制,各个 Agent 自发地形成高效的组织。更有意思的是,霄霄教授认为这种 AI 原生的组织方式反过来可能启发人类——我们或许可以从 AI 的组织架构中学到如何让人类团队更高效。

07
AI 失败容忍与安全设计

不同场景对 AI 错误的容忍度天差地别,医疗和法律需要极高的准确性,而 AI 的输出设计——尤其是 Confidence Score 和高亮提示机制——可以成为安全保障的关键手段。

Indigo 和霄霄教授深入讨论了一个现实问题:我们应该在多大程度上信任 AI 的输出?

霄霄教授提到了医疗领域的一个设计思路,非常值得其他行业借鉴。在将 AI 应用于医疗辅助诊断时,系统会自动高亮那些 AI 有可能答错的关键词,把它们链接到相关的医学文献和 Clinical Guideline,强制要求医生在核实之后才能进入下一步分析。这不是简单地告诉用户「AI 可能会出错」,而是在产品设计层面嵌入了一套验证机制。

核心概念是 Confidence Score(置信度评分)。AI 本质上是概率模型,它的每一个输出都有一个对应的置信度。如果某个词或判断的置信度只有0.2(满分1.0),那它就应该被高亮出来,提醒用户需要人工审查。这种「AI 输出设计」的思路,不只适用于医疗,在科研、法律等任何需要高准确性的专业领域都有重要价值。

08
外骨骼隐喻:当 AI 让大脑「萎缩」

过度依赖 AI 会导致人类认知能力的退化,就像长期穿戴外骨骼会让肌肉萎缩一样。教育的根本使命需要从「教技能」转向「教意义和目标感」。

Anthropic 最近发布了一份研究报告,显示长期使用 Claude Code 的开发者,编程能力都出现了不同程度的退化。霄霄教授对此深以为然,认为这是一个非常严重的问题——过度依赖 AI 会让大脑产生惰性。

Indigo 用了一个特别精彩的比喻:外骨骼。想象你想锻炼肌肉去举重,但现在有了高科技外骨骼,穿上它举重轻轻松松。问题是,你完成了举重动作,却没有锻炼到一块肌肉。长此以往,你的肌肉一定会萎缩。他还拿自己举例:用了 Tesla 的 FSD 自动驾驶之后,他发现自己开车技术明显退步了,所以每周七天中有一天坚持自己开车——就是为了保持基本的驾驶能力。

这个外骨骼隐喻延伸到了教育问题上。Indigo 提出了一个尖锐的追问:当 AI 可以帮你完成几乎所有技能型工作时,你坐在电脑前面,面对 AI,却不知道该问什么——这是因为你没有目标。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

教育的历史揭示了问题的根源。从200多年前的工业化时代开始,教育的核心一直是「教技能」——训练士兵听口令、走正步,训练工人操作机器,训练白领使用软件。目标很明确:学会一项技能,然后去工作。但当 AI 可以即拿即用地提供这些 Skill 时,传统的技能教育就失去了意义。

霄霄教授和 Indigo 一致认为,未来教育需要一个根本性的转向:从「教技能」转向「教意义」。过去的教育从来没有教你怎么去寻找意义、制定自己的目标。当越来越多的「牛马工作」被 AI 取代,当能给你下目标的老板也不再需要你的时候,你必须能够自己形成目标。

大学教育仍然有意义,但它的价值不再是传授知识(AI 早就能做到了),而是锻炼两种核心思维能力:Critical Thinking(对问题和答案的审视能力)和逻辑思考能力。那些我们曾经认为「无用」的专业——哲学、理论物理、艺术——在 AI 时代可能反而变得更加重要,因为它们培养的恰恰是通识性的认知框架和跨领域的创造力。

09
提效 vs 拓界:AI 革命的两个维度

AI 目前主要在提升人类的效率,但它更深远的意义可能在于拓展人类的边界。只有拓展了边界,经济的「饼」才能做大,而不只是内卷。

霄霄教授在接近尾声时提出了一个让人眼前一亮的框架:AI 的发展有两个方向——提升效率和拓展边界。

提升效率是显而易见的:AI 能更快、更好地完成人类本来就会做的事情。但这条路有个问题——如果经济的总量(饼)没有变大,效率高的只是把效率低的吃掉了,最终是一场零和游戏。

INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

拓展边界才是让饼变大的关键。霄霄教授用飞机来类比:飞机不是让马车跑得更快,而是让人类能够飞上天——这是一种全新的维度拓展。历史上每一次让人类在空间中移动效率质变的发明(蒸汽机、铁路、飞机),都带来了全新的产业和职业。而 AI 这一轮革命,就像乔布斯当年说电脑是「大脑的自行车」一样——AI 是真正的智力加速器,它可能让人类的认知和创造力进入一个全新的维度。

Indigo 把这个逻辑延伸得更远:如果 AI 解放了大量的重复性劳动,人们有更多时间投入到创作和探索中,我们可能会迎来一个新的文艺复兴时代。当然,这中间有一段很现实的过渡期——人必须先满足温饱,才能追寻意义。

10
90-90 法则的警醒

软件工程中的 90-90 法则同样适用于 AI 发展——90% 的功能花了 90% 的时间完成,但剩下 10% 的功能也需要 90% 的时间,当前对 AI 进展的乐观情绪可能过于超前。

在对话的最后,霄霄教授贡献了一个非常清醒的收尾。他引用了软件工程中著名的 90-90 法则(Ninety-Ninety Rule):90%的代码花了90%的时间完成,但剩下10%的代码也需要花90%的时间。这意味着,我们可能只完成了 AI 发展中比较「容易」的部分,剩下那最后的10%甚至0.1%,难度可能远超想象。

他用自动驾驶的发展历程来佐证这个观点——几年前大家都觉得全自动驾驶马上就要实现了,但从 L2 到 L5 的跨越远比预想中困难。AI 的其他领域很可能也遵循同样的规律。

这个清醒的提醒为整场充满兴奋和想象力的对话画上了一个恰到好处的句号。未来又好又不好——这种模糊的状态,恰恰就是客观的现实。


INDIGO TALK / 一个 Agent 可能比十个更好用 - EP43

当 Indigo 兴奋地描述 AI 的调度能力时,霄霄教授会用 Swarm Learning 来提醒我们:不必假设 AI 的组织方式一定要模仿人类。当霄霄教授用认知心理学的框架分析 AI 的局限时,Indigo 又会指出硅基智能可以通过暴力堆叠算力来突破很多人类面临的物理限制。

更深层次的思考在于:如果 AI 真的可以拓展人类的边界而不仅仅是提升效率,那这场革命的意义就远远超过了我们目前关注的那些「谁会失业」「哪个模型更好」的短期问题。教育需要教的不再是技能,而是目标感和意义感——这个观点听起来理想主义,但在 AI 正以指数速度进化的当下,它可能是最务实的建议。

精华收获

关于 Agent 的本质: Agent 不等于 Chatbot,也不等于 Workflow。真正的 Agent 需要具备自主规划(Planning)、执行、自我反省和纠错的能力。这个定义从1995年到现在没有本质改变。

关于认知局限: 人类大脑的工作记忆容量有限,当任务超过这个容量就会崩溃(Hick's Law)。AI 也有类似的饱和点——单个 Agent 在20-30个 Skill 时性能最优,之后就会饱和。

关于单 Agent vs 多 Agent: 在串行任务中,单 Agent 加技能往往比多 Agent 协作更高效,因为沟通成本和错误累积是多 Agent 的两大瓶颈。但在需要角色分离和并行处理的复杂任务中,多 Agent 架构不可替代。

关于 AI 的组织形态: 不必让 AI 照搬人类的层级管理模式。Swarm Intelligence 这样的去中心化协作可能更适合 AI 的本质——甚至可以反过来启发人类组织的变革。

关于认知萎缩: 过度依赖 AI 会让认知能力退化,就像外骨骼会让肌肉萎缩。保持自主思考的能力需要刻意练习,就像体力劳动自动化之后人们需要去健身房锻炼一样。

关于教育转型: 传统教育的核心是「教技能」,而 AI 时代的教育需要转向「教意义和目标感」。Critical Thinking、逻辑思考、跨领域的创造力——这些将成为人类最不可替代的能力。

关于保持清醒: 90-90 法则提醒我们,AI 发展中最后的10%可能比前面的90%更难。自动驾驶的历程就是最好的前车之鉴。