2026-02-23 13:19:01

这期 Indigo Talk 邀请了来自 UBC Trusted and Efficient AI(TEA)Lab 的李霄霄教授在温哥华面对面深聊。霄霄的研究背景横跨耶鲁、普林斯顿、UBC 和 Vector Institute,他从神经科学转向 AI 系统研究的经历,恰好让他拥有了一个独特的双重视角:用人类认知的局限去理解 AI 的瓶颈,再用解决人类局限的方法去提升 AI 的能力。
这场对话涵盖了 Agent 的定义与演进、单智能体与多智能体的效率之争、AI 安全与失败容忍、认知萎缩的隐忧,以及教育在 AI 时代的根本转型——信息密度极高,欢迎收听。
Apple Podcast & Spotify 播客| 小宇宙播客
李霄霄(UBC 教授 / TAE Lab 负责人)
Indigo(数字镜像博主 / 独立投资人)
当我们把 Agent 挂在嘴边的时候,有没有想过这个概念其实早在 1995 年的教科书里就被定义过了?当我们急于让 AI 掌握更多技能时,有没有意识到人类大脑在面对过多选项时会瞬间崩溃——而 AI 可能也逃不过类似的命运?
加拿大在这一轮 AI 革命中的学术贡献被严重低估,从 Hinton 到 Sutton,从深度学习到强化学习,研究的火种很多都点燃在加拿大的大学里。
霄霄教授的学术轨迹颇具代表性。他在耶鲁大学的博士研究聚焦于神经科学、神经影像与人工智能的交叉领域,2020年毕业后前往普林斯顿大学做博士后,研究方向转向机器学习系统、分布式运算以及 AI 的安全与隐私问题。2021年,他加入 UBC(英属哥伦比亚大学),领导 Trusted and Efficient AI Lab——简称 TEA Lab。去年他评上了副教授,同时也在 Geoffrey Hinton 创办的 Vector Institute 担任研究员,学术休假期间还在谷歌做访问研究员。算下来,他做 AI 研究已经整整 12 年了。
TEA Lab 的名字就透露了它的核心使命:不管底层 AI 技术如何迭代,提高 AI 的可靠性和效率永远是一个值得深耕的课题。在 Pre-GPT 时代,团队关注的是卷积神经网络在图像分类、语言翻译等任务中的效率和安全性问题;到了大模型时代,这些问题非但没有消失,反而变得更加紧迫和复杂。
Indigo 特别提到了一个经常被忽视的事实:这一轮 AI 爆发的学术根基在很大程度上来自加拿大。多伦多大学的 Hinton 教授是深度学习之父,阿尔伯塔大学有写出 The Bitter Lesson 的 Richard S. Sutton,他也在与 Google 的 Gemini 团队紧密合作,蒙特利尔的 McGill 大学也贡献了大量 AI 人才。正如 Indigo 所说——加拿大负责做研究,美国负责创业赚钱。霄霄教授笑着回应,UBC 这边的 AI 研究者确实比较年轻,但假以时日,希望也能涌现出几位大佬。
Agent 并不是一个新概念,它的学术定义早在30年前就已经明确;真正区分 Chatbot、Workflow 和 Agent 的核心,在于自主规划(Planning)能力。
2025 年,Agent 成了科技圈最火的词。从 Manus 到各种开源产品,似乎一夜之间所有的 AI 应用都贴上了 Agent 的标签。但霄霄教授提醒我们,从学术角度来看,Agent 早就不是什么新概念了。

他引用了 Peter Norvig 和 Stuart Russell 在 1995 年出版的经典教科书《Artificial Intelligence: A Modern Approach》中的定义:Agent 是一个可以感知环境、根据环境自主决策、以最大化目标的系统。这个定义与后来 Richard Sutton 在 Alberta Plan 中提到的「感知环境、自我进化」一脉相承。在大模型出现之前,这就是学术界公认的 Agent 定义。
不过,目前市场上对 Agent 的理解要宽泛得多。一些简单的对话链路或者工作流(Workflow),也被贴上了 Agent 的标签。霄霄教授引用了 Anthropic 对 Workflow 和 Agent 的一个非常清晰的区分:Workflow 是大模型和工具在既定路线下进行交互的系统;而 Agent 则具备自主 Planning 和进化的能力,不仅能使用工具,甚至能创造工具。
这个区分至关重要。Indigo 从个人使用体验出发,直言在 Planning 能力方面,Anthropic 的 Claude 是他用过的最好的。Claude 不只是能理解你在说什么,还能抓住你的想法,做出合适的计划,高效地执行,遇到问题还会自我反省、退回来修改计划。用 Indigo 的话说,它已经有了「一点点元认知能力」——知道自己在干什么。霄霄教授也观察到了同样的现象,他分析这可能是因为 Anthropic 从一开始就在做 Agent 的基础建设。当然,其他模型也有各自的长处:Gemini 速度极快,OpenAI 的 Codex 写代码能力提升显著,国内的千问、Kimi、MiniMax 等也都在快速追赶。
但核心问题始终不变:真正让 Agent 成为 Agent 的,是自主规划能力——能够根据用户的目标,自主地拆解任务、分配资源、执行并自我纠正。
人类认知有明确的局限——工作记忆容量有限、注意力有限、技能容量有限;而 AI 虽然在很多方面比人类强大,却也展现出类似的瓶颈。通过研究人类认知局限的解决方案,可以反过来提升 AI 的能力。
这是整场对话中最令人意外的一段。霄霄教授从认知心理学出发,提出了一个深刻的类比框架:人类认知的局限,或许可以帮助我们理解 AI 为什么也会「犯傻」。
他提到了一个经典的认知科学理论——人类的认知能力是有限的。对于自然界中的复杂系统来说,人类大脑所具备的理性能力,远远不足以解决那些需要穷举所有可能性的问题。最直观的例子就是下国际象棋:理论上存在一个最优解,但人类大概只能往前看3到5步,而无法计算每一步的最终胜率。
更有趣的是 Hick's Law 实验。研究者给受试者一个灯阵列,让他们在灯亮的时候按对应的按钮。当灯的数量越来越多时,人的反应时间急剧增长,准确率也大幅下降。这揭示了人类大脑一个核心的物理限制:工作记忆(Working Memory)的容量是有限的,当任务超过这个容量时,整个认知系统就会瞬间崩溃。

那 AI 呢?Indigo 的直觉反应是:AI 不会有这个问题啊,加算力就好了,开 1000 个实例同时干活。霄霄教授对此给出了一个 Yes and No 的回答。他的研究发现,当你给一个 AI Agent 配备越来越多的 Skill 时,它的表现并不会无限提升——大概在 20 到 30 个 Skill 的时候,它能达到最佳性能;再往上加,性能就会饱和,甚至下降。
这个发现意味着,AI 虽然在很多维度上超越了人类的认知限制(比如 Transformer 的多头注意力机制可以同时关注所有信息),但它也有自己的物理瓶颈——上下文窗口就是它的「工作记忆」,当 Context 变得非常长的时候,AI 也会 Lost in the Middle。
Indigo 在这里做了一个精彩的类比:人类大脑的注意力是有限的,一次只能关注几件事;Transformer 虽然用多头注意力同时关注所有事情,但上下文就是它的物理限制——就像内存永远有物理上限一样。
虽然我们习惯用人类认知来类比 AI,但硅基智能和碳基智能在底层原理上完全不同——AI 可以被设计、可以快速复制、可以通过暴力堆叠算力突破单体限制。
霄霄教授在这里做了一个重要的纠偏。虽然用人类认知来理解 AI 是一种有用的研究方法,但他强调不能把这种类比推到极端——硅基智能和碳基智能的底层原理就是不同的。
人类大脑使用神经电信号传递信息,经过数百万年的自然选择进化而来;AI 的核心是 Transformer 架构下的生成网络,用数学运算模拟智能。人类大脑在能量效率上远超 AI——看两个例子就能理解一个概念,而 AI 需要海量数据训练。人类的泛化学习能力也更强,这种「潜移默化」的学习方式是 AI 目前还在追赶的。
但硅基智能有一些碳基智能完全不具备的优势。第一,它可以被设计——人类可以主动给 AI 附加外界能力,把它打造成一个极其强大的系统,而人类目前无法被这样设计。第二,它可以快速复制——只要有足够的算力和能源,你可以瞬间生产出成千上万个完全相同的智能体。第三,它可以自我进化——Self-Evolving 算法让 AI 有了自主迭代的能力。

Indigo 做了一个生动的总结:在地球上,一个新的智慧物种已经诞生了,它进化的速度远超碳基生物。虽然单体能量效率不如人脑,但硅基智能可以无限「插电」,通过暴力堆叠算力和快速复制,产生完全不同形式的智能。这个事实虽然听起来有点让人不安,但确实是我们必须面对的新现实。
在串行任务中,单个 Agent 加上适当的 Skill 往往比多 Agent 协作更高效,因为沟通成本和错误累积是多 Agent 系统的主要瓶颈;但复杂任务中的角色分离和并行处理仍然需要多 Agent 架构。
这是霄霄教授近期最引人注目的一项研究「When Single-Agent with Skills Replace Multi-Agent Systems and When They Fail」。他的团队发现,在特定类型的任务中——尤其是那些可以串行处理的任务——给一个 Agent 赋予多种技能,往往比让多个 Agent 协作更快、更好。

为什么?原因其实和人类组织面临的问题如出一辙。当你和其他人合作完成一件事时,沟通本身就会产生信息损失。如果一个人在自己的能力范围内就能完成这件事,省去沟通环节反而效率更高。霄霄教授用做菜来打比方:如果一个人既会切菜又会炒菜,那他一个人做一道菜可能比两个人流水线配合更快,因为单人操作时上下文是连续的,他可以灵活优化自己的工作流。
多 Agent 协作还有两个额外的代价。第一是 Token 成本——Agent 之间的每一次沟通都需要消耗算力和 Token。第二是错误累积——在串联的架构中,只要有一个 Agent 出错,这个错误就会传导到所有下游的 Agent 上面去。
但这并不意味着多 Agent 架构没有价值。霄霄教授严谨地指出,他的研究聚焦的是特定类型的串行任务,并不覆盖所有场景。在两种情况下,多 Agent 协作仍然是必要的。

第一种是任务本身需要角色分离。比如 Anthropic 最近发布的 Agent Team 演示中,16个 Agent 分工合作完成了一个 C 编译器,并用它重新编译了 Linux 内核。在这种复杂的软件工程任务中,写代码的人和审核代码的人必须是分开的——就像一个人不能既当裁判又当选手。因为单个 Agent 的记忆空间无法隔离,它无法在同一个上下文中既是生产者又是审核者。
第二种是任务可以被有效地并行分片。Indigo 分享了自己使用 Claude Code 的经验:当他给 AI 下达一个编码转码任务时,AI 会自己判断是否要启动 Sub Agent,把任务分成五片让五个 Agent 同时处理。更聪明的是,AI 会动态决定什么时候分包、什么时候自己做——就像一个出色的人类调度指挥。
当前的多 Agent 架构过度模仿了人类的组织层级,但 AI 可能会发展出完全不同的协作模式——像鸟群或蚁群那样,无需 Leader 也能高效运作。
这段讨论特别有启发性。Indigo 首先抛出了一个观察:人类组织是一个极度冗余和低效的系统,因为人要休息、有情绪、有自尊心(EGO),这些都会在组织协作中产生巨大的摩擦。所以人类社会发展出了高层、中层、执行层这样的分层管理结构。
但对 AI 来说,这套逻辑可能完全不适用。霄霄教授提出了一个更具前瞻性的视角:他对当前 AI Agent 过度模仿人类组织架构持保留态度。AI 的思考路径可能和人类完全不同,它的组织方式也未必需要照搬人类的层级分工。
他提出了一个特别有画面感的替代模型:Swarm Learning——就像鸟群飞行一样。鸟群没有 Leader,单只鸟的智能也非常有限,但一群鸟在一起飞的时候,却能形成极其高效的组织形态。蚂蚁也是如此:单个蚂蚁很傻,也没有指挥官,但蚁群通过简单的职能分工(搬食物、喂养蚁后、守卫)和某种涌现的默契,就能表现出惊人的集体智能。

也许未来的多 Agent 系统不需要一个中央调度员,而是通过某种去中心化的协作机制,各个 Agent 自发地形成高效的组织。更有意思的是,霄霄教授认为这种 AI 原生的组织方式反过来可能启发人类——我们或许可以从 AI 的组织架构中学到如何让人类团队更高效。
不同场景对 AI 错误的容忍度天差地别,医疗和法律需要极高的准确性,而 AI 的输出设计——尤其是 Confidence Score 和高亮提示机制——可以成为安全保障的关键手段。
Indigo 和霄霄教授深入讨论了一个现实问题:我们应该在多大程度上信任 AI 的输出?
霄霄教授提到了医疗领域的一个设计思路,非常值得其他行业借鉴。在将 AI 应用于医疗辅助诊断时,系统会自动高亮那些 AI 有可能答错的关键词,把它们链接到相关的医学文献和 Clinical Guideline,强制要求医生在核实之后才能进入下一步分析。这不是简单地告诉用户「AI 可能会出错」,而是在产品设计层面嵌入了一套验证机制。
核心概念是 Confidence Score(置信度评分)。AI 本质上是概率模型,它的每一个输出都有一个对应的置信度。如果某个词或判断的置信度只有0.2(满分1.0),那它就应该被高亮出来,提醒用户需要人工审查。这种「AI 输出设计」的思路,不只适用于医疗,在科研、法律等任何需要高准确性的专业领域都有重要价值。
过度依赖 AI 会导致人类认知能力的退化,就像长期穿戴外骨骼会让肌肉萎缩一样。教育的根本使命需要从「教技能」转向「教意义和目标感」。
Anthropic 最近发布了一份研究报告,显示长期使用 Claude Code 的开发者,编程能力都出现了不同程度的退化。霄霄教授对此深以为然,认为这是一个非常严重的问题——过度依赖 AI 会让大脑产生惰性。
Indigo 用了一个特别精彩的比喻:外骨骼。想象你想锻炼肌肉去举重,但现在有了高科技外骨骼,穿上它举重轻轻松松。问题是,你完成了举重动作,却没有锻炼到一块肌肉。长此以往,你的肌肉一定会萎缩。他还拿自己举例:用了 Tesla 的 FSD 自动驾驶之后,他发现自己开车技术明显退步了,所以每周七天中有一天坚持自己开车——就是为了保持基本的驾驶能力。
这个外骨骼隐喻延伸到了教育问题上。Indigo 提出了一个尖锐的追问:当 AI 可以帮你完成几乎所有技能型工作时,你坐在电脑前面,面对 AI,却不知道该问什么——这是因为你没有目标。

教育的历史揭示了问题的根源。从200多年前的工业化时代开始,教育的核心一直是「教技能」——训练士兵听口令、走正步,训练工人操作机器,训练白领使用软件。目标很明确:学会一项技能,然后去工作。但当 AI 可以即拿即用地提供这些 Skill 时,传统的技能教育就失去了意义。
霄霄教授和 Indigo 一致认为,未来教育需要一个根本性的转向:从「教技能」转向「教意义」。过去的教育从来没有教你怎么去寻找意义、制定自己的目标。当越来越多的「牛马工作」被 AI 取代,当能给你下目标的老板也不再需要你的时候,你必须能够自己形成目标。
大学教育仍然有意义,但它的价值不再是传授知识(AI 早就能做到了),而是锻炼两种核心思维能力:Critical Thinking(对问题和答案的审视能力)和逻辑思考能力。那些我们曾经认为「无用」的专业——哲学、理论物理、艺术——在 AI 时代可能反而变得更加重要,因为它们培养的恰恰是通识性的认知框架和跨领域的创造力。
AI 目前主要在提升人类的效率,但它更深远的意义可能在于拓展人类的边界。只有拓展了边界,经济的「饼」才能做大,而不只是内卷。
霄霄教授在接近尾声时提出了一个让人眼前一亮的框架:AI 的发展有两个方向——提升效率和拓展边界。
提升效率是显而易见的:AI 能更快、更好地完成人类本来就会做的事情。但这条路有个问题——如果经济的总量(饼)没有变大,效率高的只是把效率低的吃掉了,最终是一场零和游戏。

拓展边界才是让饼变大的关键。霄霄教授用飞机来类比:飞机不是让马车跑得更快,而是让人类能够飞上天——这是一种全新的维度拓展。历史上每一次让人类在空间中移动效率质变的发明(蒸汽机、铁路、飞机),都带来了全新的产业和职业。而 AI 这一轮革命,就像乔布斯当年说电脑是「大脑的自行车」一样——AI 是真正的智力加速器,它可能让人类的认知和创造力进入一个全新的维度。
Indigo 把这个逻辑延伸得更远:如果 AI 解放了大量的重复性劳动,人们有更多时间投入到创作和探索中,我们可能会迎来一个新的文艺复兴时代。当然,这中间有一段很现实的过渡期——人必须先满足温饱,才能追寻意义。
软件工程中的 90-90 法则同样适用于 AI 发展——90% 的功能花了 90% 的时间完成,但剩下 10% 的功能也需要 90% 的时间,当前对 AI 进展的乐观情绪可能过于超前。
在对话的最后,霄霄教授贡献了一个非常清醒的收尾。他引用了软件工程中著名的 90-90 法则(Ninety-Ninety Rule):90%的代码花了90%的时间完成,但剩下10%的代码也需要花90%的时间。这意味着,我们可能只完成了 AI 发展中比较「容易」的部分,剩下那最后的10%甚至0.1%,难度可能远超想象。
他用自动驾驶的发展历程来佐证这个观点——几年前大家都觉得全自动驾驶马上就要实现了,但从 L2 到 L5 的跨越远比预想中困难。AI 的其他领域很可能也遵循同样的规律。
这个清醒的提醒为整场充满兴奋和想象力的对话画上了一个恰到好处的句号。未来又好又不好——这种模糊的状态,恰恰就是客观的现实。

当 Indigo 兴奋地描述 AI 的调度能力时,霄霄教授会用 Swarm Learning 来提醒我们:不必假设 AI 的组织方式一定要模仿人类。当霄霄教授用认知心理学的框架分析 AI 的局限时,Indigo 又会指出硅基智能可以通过暴力堆叠算力来突破很多人类面临的物理限制。
更深层次的思考在于:如果 AI 真的可以拓展人类的边界而不仅仅是提升效率,那这场革命的意义就远远超过了我们目前关注的那些「谁会失业」「哪个模型更好」的短期问题。教育需要教的不再是技能,而是目标感和意义感——这个观点听起来理想主义,但在 AI 正以指数速度进化的当下,它可能是最务实的建议。
关于 Agent 的本质: Agent 不等于 Chatbot,也不等于 Workflow。真正的 Agent 需要具备自主规划(Planning)、执行、自我反省和纠错的能力。这个定义从1995年到现在没有本质改变。
关于认知局限: 人类大脑的工作记忆容量有限,当任务超过这个容量就会崩溃(Hick's Law)。AI 也有类似的饱和点——单个 Agent 在20-30个 Skill 时性能最优,之后就会饱和。
关于单 Agent vs 多 Agent: 在串行任务中,单 Agent 加技能往往比多 Agent 协作更高效,因为沟通成本和错误累积是多 Agent 的两大瓶颈。但在需要角色分离和并行处理的复杂任务中,多 Agent 架构不可替代。
关于 AI 的组织形态: 不必让 AI 照搬人类的层级管理模式。Swarm Intelligence 这样的去中心化协作可能更适合 AI 的本质——甚至可以反过来启发人类组织的变革。
关于认知萎缩: 过度依赖 AI 会让认知能力退化,就像外骨骼会让肌肉萎缩。保持自主思考的能力需要刻意练习,就像体力劳动自动化之后人们需要去健身房锻炼一样。
关于教育转型: 传统教育的核心是「教技能」,而 AI 时代的教育需要转向「教意义和目标感」。Critical Thinking、逻辑思考、跨领域的创造力——这些将成为人类最不可替代的能力。
关于保持清醒: 90-90 法则提醒我们,AI 发展中最后的10%可能比前面的90%更难。自动驾驶的历程就是最好的前车之鉴。
2026-02-11 12:51:23

Indigo Talk 第 42 期,邀请到了一位来自硅谷的老朋友 —— Han Hua。Han 曾在谷歌担任工程师和产品经理,后来转型进入谷歌风投(Google Ventures,简称 GV),专注于人工智能和硬科技领域的投资,涵盖半导体、硬件、机器人等方向。在离开 GV 之后,Han 正在筹备自己的新投资基金。
两位老友的这次对谈,从硅谷的天使投资文化聊起,一路深入到 AI Agent 的爆发、科技公司估值逻辑的根本性转变、人类社会在 AI 时代可能面临的深层挑战,以及未来十年最值得关注的三大科技方向和行星级文明的宏大愿景。
Apple Podcast & Spotify 播客 | 小宇宙播客
Han 在谷歌做工程师和产品经理期间,逐渐对投资产生了浓厚兴趣。他坦言自己并非科班出身,大约在 2019 到 2020 年左右开始做天使投资。这看似个人的职业转型,背后却折射出硅谷一种独特的生态文化。
在硅谷,科技工作者的收入普遍较高,他们在传统的股票、债券、房地产之外,往往会将一部分资金配置到所谓的"私有市场投资"(Private Market Investment)中 —— 也就是投资尚未上市的早期创业公司。这种天使投资的习惯在硅谷极为普遍,几乎可以说是"人均 VC"。
Indigo 对此深有感触,他补充说,这种现象在 2009 年到 2017 年的中国互联网黄金时期同样存在。那段日子里,大量中国公司在纳斯达克上市,高管们套现后也会转身投资新项目。Indigo 将这种模式称为"硅谷精神"的核心:成功之后重新播种,寻找新的机会。这不仅仅是资金的循环,更是一种经验、人脉、方法论的代际传承——上一辈成功的创业者和投资人,会把自己积累的一切帮助下一代创业者,一代一代传下去,越来越多的创业者汇聚到这个地方来。正是这种"传帮带"的机制,让科技创新之火能够持续燃烧。
Han 来到硅谷之后才真正切身体会到这一点。他形容这是一个"传帮带"的过程,除了资金支持以外,经验和人脉的传递才是最宝贵的。这种生态不是任何一个政府政策能够复制的,它是几十年自然演化的结果。
当 Indigo 问到 Han 如何看待过去五六年硅谷科技趋势的变化时,Han 给出了一个非常有结构性的分析。他从个人观察出发,指出整个风投和创业行业在过去十几年发生了翻天覆地的变化,主要体现在两个层面。

第一个巨变:创业公司在私有市场待的时间越来越长
过去,一家创业公司融资几轮之后,通常会选择 IPO 上市。但现在情况完全不同了。越来越多的资金涌入风投行业,导致创业公司可以在私有市场融到很高的估值。Han举了一个非常经典的例子:支付公司 Stripe 和上市公司 Adyen,在收入规模差不多的情况下,Stripe 在私有市场的估值却是 Adyen 公开市场估值的两倍甚至更多。这就是所谓的"估值倒挂"。
既然在一级市场就能拿到更高的估值,而且不用面对上市后繁重的监管压力和信息披露要求,创业者自然更愿意留在私有市场。Han 还提到了一个很有趣的历史细节:当年谷歌之所以上市,并非创始人主动选择,而是因为当时美国证券交易委员会(SEC)规定,一家公司的股东数量超过 500 人就必须进行公开募资。谷歌的股东数量早就突破了这个限制,不得不上市。Facebook 后来也遇到了同样的情况。但此后,SEC 大幅放松了这一限制,再加上 SPV(特殊目的载体)等金融创新工具可以将大量小股东压缩为 Cap Table 上的一行,公司留在私有市场的技术障碍几乎被完全消除了。
Indigo 补充了自己在一线的观察:现在各种管理股权的 SaaS 平台(比如 Carta)已经渗透到整个股权融资的流通结构中,在 Delaware 注册的公司,所有的股权交易都在系统里完成,非常方便。一级市场的流动性比以前好了太多,你可以在任何阶段进入,也可以在任何阶段退出。这意味着公司不上市也完全没关系,投资人在一级市场里就能实现退出。
第二个巨变:公司成长的天花板被彻底打破
Han 的第二个观察更为深刻。他指出,在 2010 年到 2020 年之间,大多数VC 心中存在一个估值模型上的"隐形天花板"——认为一家公司的市值大概涨到 100 亿美元左右就到头了。在 2020 年之前,市值达到万亿美元的公司屈指可数,可能只有苹果。因此,很多投资人的策略是:等公司涨到 100 亿美金左右就开始退出,把钱收回来投新的公司。
但科技的进步改变了一切。AI、云计算、互联网本身的增长、支付效率的提升,这些因素让企业组织可以长得更大。最好的公司能够进行更长时间的复利增长,天花板变得几乎无限。现在万亿美元的公司已经有很多了,特斯拉甚至在追求 10 万亿美元的估值。
Han 指出,在这种新思潮下,一批新的 VC 流派认为:如果能找到世界上最好的公司,并且相信它在未来10到20年能以复利速度增长,那这个企业的天花板基本是无限的。它可以涨到10万亿美元。
投资策略的根本转变:最大的损失是机会成本
由此推导出一个极为重要的投资哲学转变。Han 解释说,对于风险投资人来说,最大的难点并不是控制风险或控制损失——投一个项目如果亏损,完全没有问题。真正不可原谅的,是错过一个 "时代标杆公司"(Generational Company)。如果没有投 SpaceX、没有投 OpenAI、没有投谷歌、没有投Facebook,这样的损失几乎是无法估量的。尤其是当你认为一个公司的成长没有极限的时候,对于最好的公司,无论在什么估值进去,都是值得的。
Indigo 用一种更通俗的方式总结了这个逻辑:你想抵御货币贬值、通胀、未来的不确定性?那就去投科技公司,投最大的那些。知道垄断会带来很多后果,但你投它、成为它的股东 —— 打不过它,就成为它的一部分。
Han对此表示认同,同时指出一个更深层的原因:这些公司增长上限变高了,也就是市场的 TAM(总可寻址市场)变大了。互联网 20 年前可能只有上亿用户,今天是 40 到 50 亿用户,未来可能达到 100 亿。再加上 AI 让效率提升、组织规模可以更精简(One Person Entrepreneur 变得可能),达到同样的市值规模可以用更低的成本。盈利结构将会更好,更"可怕"的公司将会出现。
Indigo 特别提到自己专门去看了 Anthropic 的 CEO Dario Amodei 和 DeepMind 的 CEO Demis Hassabis 在达沃斯论坛上的联合访谈。在那场对话中,Dario 明确提出了一个令人震撼的判断:未来的垄断会更加加剧,可能会诞生10 万亿美元的公司,就像现在万亿美元的公司一样稀松平常。这不是遥远的预言,而是基于 AI 效率提升和市场规模扩大这两个已经在发生的趋势做出的合理推演。Demis 也补充了关于 AI 泡沫的看法——他认为 AI 的泡沫更多存在于一级市场,那里的估值更加混乱。
两人进一步讨论了一个正在发生的结构性变化:一级市场和二级市场的界限正在变得越来越模糊。

Indigo 观察到,越来越多的二级市场公募基金开始用股票投资的风格来做一级市场投资,这就是所谓的"Crossover Fund"(交叉基金)。与此同时,纽交所和纳斯达克都在申请建立自己的代币化(Tokenization)平台,Robinhood在推进股票的 7×24 小时交易。加密货币、股票、一级市场,这三种原本泾渭分明的投资形态正在融合成一种混合形态。
Han 从监管的角度补充了另一个维度。在美国,要投一级市场的公司,你需要成为所谓的 "合格投资人"(Accredited Investor)或"合格购买者"(Qualified Purchaser),对收入和净资产有较高的门槛要求。SEC 的本意是保护投资人,但客观上,这也意味着普通民众没有机会在公司最早的阶段接触到最好的投资机会。这形成了一种"反向不公平":更有钱的人更有机会获得这些投资渠道,而普通人被挡在门外。
Han 个人倾向于应该让更多人有机会接触到早期的优质投资机会,但他也承认,早期市场信息不公开、不透明,坑非常多,大部分普通民众确实没有能力甄别公司和创始人的质量。这是一个真正的两难困境——连 SEC 都没有彻底想清楚的问题。
话题自然而然地转向了当下最火热的现象——AI Agent在本地电脑上的复活。Indigo 用了一个充满科幻色彩的比喻来形容这件事:"Ghost In The Shell" —— 我的壳子里的突然有灵魂了。

Clawdbot:一个改变了游戏规则的开源项目
Indigo 讲述了自己的亲身体验。他在自己的 Mac Mini 上安装了一个叫Clawdbot(后来改名为 Molt,再后来改名为 OpenClaw)的开源 AI 智能体。这是一个奥地利小哥做的项目,它把各种应用的权限——WhatsApp、iMessage、Gmail、Google Drive、Notion、本地电脑文件系统——全部打通,让AI可以像一个真正的个人秘书一样工作。
Indigo 装好之后,发现它能做到一些令人惊叹的事情。你随便跟它说什么需求,它都能执行。它不是简单的一问一答,而是"长程完成任务"——你只说一个目标,它会自己想办法去实现,具有非常强的创造性。更重要的是,它拥有记忆。它会记住你跟它的所有对话,Indigo 经常发现自己重复问同样的问题,它会说"你不是问过了吗"。
但 Indigo 也坦言自己被吓到了。他发现自己的密码、Token 这些敏感信息都暴露在了 Agent 面前,如果它不小心发出去怎么办?所以他在自己的主力MacBook 上安装后,马上就删掉了。
为什么这个项目能瞬间走红?
Han 从投资人和技术观察者的角度总结了 Clawdbot 成功的几个关键因素:
Indigo 感慨说,之前大家还在想 5G 互联网怎么改变世界,结果那些愿景都没实现,倒是被 AI 一下子给解锁了。
"MCP 就是狗屎":为什么 Linux 命令行才是 Agent 的最优解
Indigo 特别分享了 Clawdbot 作者在接受访谈时的一个惊人观点。这位奥地利小哥直言不讳地说:"MCP is Shit"——Anthropic 推出的 MCP(Model Context Protocol,模型上下文协议)是用来让Agent调用各种工具的标准协议,在业界被广泛讨论。但这位作者认为,最简单、最优雅的方法是把整个工作环境当成一个 Linux 系统。
他的逻辑非常极客:Linux 系统本身就已经完美解决了工具调用的问题。你把所有需要执行的动作都写成一个小的命令行程序就好了——想复制文件是一个小命令,想访问Gmail也可以写一个小程序。因为这位作者以前就喜欢把各种操作都封装成命令行程序放在自己的目录里面。而现在的AI模型,在训练过程中已经非常擅长调用命令行—— Bash、Shell 这些东西它信手拈来。你告诉它"你的工具都在这个目录下的命令行程序里",它就什么都能做了。
更妙的是,这些命令行程序本身也可以用 AI 来写。你用 Claude Code 或者其他 AI 编程工具把程序写完,封装成一个命令行脚本就可以调用了。整个过程完全在本地操作系统中完成,不需要任何云端协议或 API 中间层。
这种思路虽然极端,但确实打开了很大的脑洞:也许我们把 Agent 的工具调用问题想得太复杂了,最朴素的操作系统哲学反而是最有效的解决方案。
Clawdbot 的三个启示
Han 最后总结了这个现象带来的深层启示:
Han 抛出了一个发人深思的问题:在未来几年的市场上,哪些公司是 Agent Winner,哪些是 Agent Loser?
他引用了一个数据:CloudFlare 的分析显示,大部分网站的流量其实已经被Bot 占据,超过了人类用户的访问量。这意味着我们已经进入了一个"Agent 互联网时代"。在这样的时代,如果一个产品或服务不是为 Agent 设计的,可能很快就会被淘汰。
SaaS 的"Excel套壳"危机
Indigo 提出了一个尖锐的观察:大部分 SaaS 本质上都是"Excel 的 Wrapper"(包装器)。每一个 SaaS 解决的,其实就是 Excel 的一个具体痛点。但现在,当 Claude 这样的 AI 可以直接操作 Excel 时,这些中间层的 SaaS 产品就面临了存在危机。2026年Q1的财报季,大量软件公司股价暴跌,与 Clawdbot 的出现几乎同步。Indigo 半开玩笑地把 2026 年1月称为"终结者元年"。
这对投资者的启示是清晰的:未来的投资公式变成了"Software/SaaS = Agent + Database"。真正有价值的是数据库(独特的、难以替代的数据资产),而不是工作流本身。如果一家公司纯粹只在做 Workflow,没有自己独特的数据壁垒,那它在 Agent 时代就完全没有意义了。
对话在这里进入了更加宏观和思辨的层面。Indigo引用了经典动漫《攻壳机动队》(Ghost in the Shell)的意象来描述 AI Agent 的未来——灵魂在云端,可以进入任何一个有芯片的物理载体。

第一步:数字世界的渗透
即使AI始终停留在虚拟世界,它对人类社会的影响已经足够深远。Han指出,它可以通过操纵人类本身来操纵社会变化。具体来说,AI有机会侵入安全系统、操纵选举、控制社交媒体的推荐算法。
这不是危言耸听。Han 分析说,大部分人很容易受媒体和社交媒体的影响。我们的思想和我们摄入的内容高度相关,甚至我们说的语言也会被深刻塑造。AI是一个极其聪明的智能体,大多数人根本没有足够的能力去抵抗它的影响。
第二步:物理世界的控制
随着所有物件都将拥有芯片,AI Agent 可以进入任何设备——摄像头、智能门锁、家用电器。在5到10年内,大量简单劳动和蓝领工作将被AI和机器人取代。Indigo 感叹说,到那时我们就进入了"硅基文明",人类在其中只是扮演一个"被影响的角色"。
但两人并没有陷入悲观。他们表达了一个共同的希望:也许我们都不用上班了,可以去追求自己的 Passion,享受生活,花更多时间陪伴家人,把时间放在人与人之间真正重要的事情上。
在对未来的畅想之后,Han 把讨论拉回到了一个更古老、更根本的命题:人类的本性。
他提出了一个关键洞察:人类本质在过去几万年、几十万年都没有太大变化。人类依然贪婪,依然追求享乐。抓住人类本性的生意,永远是好的生意。无论科技怎么变,理解人性的人总能找到机会。
多巴胺的陷阱:延迟满足的消亡
Han 接着从神经科学的角度展开了一个更深层的忧虑。人类获得满足感有两种途径:一种是即时满足,对应多巴胺的快速释放——刷短视频、打游戏、吃甜食;另一种是延迟满足——经过长期的艰苦努力后获得的成就感,这种感觉更深刻、更持久,而且会塑造一个人的性格。
Han 真正担心的是:如果AI把我们很多需要艰难完成的工作都代劳了,人类就失去了获得长期满足的机会。当所有人都只能追求短期快乐时——他引用了一个著名的实验比喻——就像那个"25号宇宙"的小鼠实验一样,最终走向的是一种集体性的沉沦。
这是"娱乐至死"的终极版本。Indigo 问:你觉得我们会多快到达那个状态?Han 保持了谨慎的乐观——他认为不会那么快,但这个风险是真实存在的。
黄仁勋的忠告:"I Hope You Suffer"
在讨论延迟满足时,Han引用了NVIDIA CEO黄仁勋对斯坦福毕业生说过的一句名言:"I Hope You Suffer"——我希望你们经历苦难。这句话乍听很残酷,但核心含义是:真正的成功需要在漫长的失败和痛苦中保持坚韧。黄仁勋自己就是这样走过来的,NVIDIA 在成为万亿美元公司之前,经历了无数次濒临死亡的至暗时刻。

Han由此引申出对创业者品质的思考:在AI时代,Grit(毅力)和Resilience(韧性)是永远稀缺的品质。那些能够"连续八年照样起来"继续战斗的人,才是真正的创业者。当AI把所有技术门槛拉平之后,区分赢家和输家的不再是智商或工具,而是能不能在长期的困难中保持战斗意志。
这是整场对话中最具争议性的部分。很多VC和媒体都在鼓吹"AI让创业变得更容易了",但Han旗帜鲜明地提出了相反的观点:在AI时代,创业变得更难了。

"均衡理论":水涨船高的残酷逻辑
Han 的论证逻辑非常严密。他首先指出,AI确实让很多事情变得更容易——开发产品更快、运营成本更低、一个人就能干以前十个人的活。但问题在于,这些工具对所有人都是平等开放的。当所有人都拥有同样的AI工具时,竞争的门槛并没有降低,反而升高了。
他举了一个具体的例子:几年前,一个 SaaS 公司做到 100 到 200 万美元的年收入(ARR),就能比较轻松地融到A轮。但今天,这样的公司实在太多了。AI帮助了公司的增长速度,但市场的期望值也同比例上升了。这就是典型的"水涨船高"——你虽然涨了,但身边所有人都涨了,你的相对位置完全没变。
Han把这称为"均衡理论":当所有人获得相同的能力提升时,标准自然会上升。差的公司被更快地淘汰了,但成功的公司必须越过比以前更高的门槛。相对难度不降反增。
他直言不讳地批评了某些 VC 的话术:"VC 还是挺喜欢忽悠人的"——他们告诉创业者说AI时代创业更容易了,但实际情况恰恰相反。
供给侧过度供给的困境
更深层的问题是"供给侧的过度供给"。当每个人都可以用AI低成本地创建产品和内容时,人类的注意力就成了最稀缺的资源。在这种环境下,要脱颖而出,你不仅需要好的产品,你还需要成为一个网红(KOL),还需要运气特别好,想法还得特别不错——即使这些条件都满足了,获取流量依然极其困难。
Indigo 分享了自己投资策略的变化:他现在不再积极投早期公司了,因为早期成功率在下降。他的策略是"往后面冲"——只投那些已经验证了产品市场契合(Product-Market Fit)的公司。市场本身就是在投票,你等投票结果出来再跟进。
Han 补充说,像 Y Combinator 和 a16z 这样的机构之所以还能在早期投资中保持优势,是因为它们本质上已经成为了"KOL平台"和"流量平台"——它们不仅提供资金,更能帮助 portfolios 公司解决供给过剩环境中最棘手的问题:如何被看见。
"超级个体"的崛起与局限
尽管创业变难了,但一种新的模式正在浮现——"超级个体"。在 AI 时代,一个人或极小的团队可以用极低的成本实现盈利。这种低成本模式下,你不需要融资、不需要大团队、不需要 VC,一个人就能养活自己。
但 Han 也指出了这种模式的局限:超级个体的天花板有限。如果你想做一个有巨大 TAM 的事业,竞争依然极其激烈。这两条路径——小而美的超级个体和追求万亿市值的雄心勃勃的公司——在 AI 时代将会更加分化。
Han 提出了一个令人振奋的概念框架来解释AI对科学发现的影响——"搜索空间的扩展"。

他用一个非常形象的比喻来说明:过去,科学家就像拿着铁锹去挖掘未知领域的人,受限于资金、时间、人力,他们只能在有限的范围内搜索。但现在,AI和算力就像是"盾构机"甚至是"大炮",可以同时在无数个方向上进行平行探索。你可以同时测试数百万甚至数十亿种蛋白质组合。探索的成本——无论是财务成本、时间成本还是人力成本——都趋近于零。
这意味着科学发现的概率被大幅提升了。以前可能需要几十年才能找到的突破,现在可能几个月就能找到。
三大前沿:能源、材料、量子计算
Indigo 深受 DeepMind 创始人Demis Hassabis 的启发(两人提到了 Demis 在播客和达沃斯论坛上的分享),提出了人类面临的三大关键科学挑战:
Han 描绘了一个未来的"会聚"图景:量子计算可以模拟世界场景,AI在模拟中找到捷径和可能性,无限能源支撑海量计算,新材料实现前所未有的组合——当这三条技术线交汇的时候,"世界就进入了完全不一样的东西"。
在对话的后半段,两人系统性地梳理了AI改造世界的三大方向,这可能是整期节目中最具实操价值的部分。
方向一:Agent 对软件行业的颠覆
Han 认为,AI 首先要做的是"改造自己家"——软件行业本身。整个软件行业将被 Agent 彻底颠覆。Indigo 引用了一个在科技圈引发热议的信息:一位前 xAI员工在播客中透露,xAI 内部有一个名为"Macrohard"(中文戏称"巨硬")的项目,目标是创建能替代人类白领工作的数字智能体。这与特斯拉的 Optimus机器人形成了互补—— Optimus 负责物理世界,Macrohard 负责数字世界。
这个方向的核心逻辑很简单:先用AI解决所有数字化企业的效率问题,消灭大量中间层的软件和人工环节。正如Indigo的公式所表达的:"Software/SaaS = Agent + Database",未来的软件就是Agent加上数据库,工作流层将被Agent自动生成和执行。
方向二:AI for Science——被严重低估的机会
Han 认为"AI for Science"是一个被显著低估的方向。通过扩大搜索空间和提升搜索效率,AI 将极大地提高科学发现和新材料发现的概率。他提到了常温超导体、纳米材料、生物技术解决方案等具体可能性。
这个方向之所以被低估,部分原因是它的回报周期更长,不像消费级AI应用那样能快速获得用户和收入。但一旦突破,其影响将是文明级别的。
方向三:机器人与物理世界的改造
尽管当前存在"机器人泡沫",但 Han 认为机器人模型和控制技术的突破是可以预期的。他提到了波士顿动力和宇树科技的跳舞机器人作为当前技术水平的标杆。他预测在2027到2028年会出现实质性突破——机器人将能够感知本地数据,并以令人印象深刻的方式完成实际工作。
Indigo 补充了一个当前 AI 能力就已经足以引发变革的判断:哪怕 AI 不再进化了,人类社会再过五年都消化不完它目前的能力。基于这个判断,他总结了三种利用当前AI能力的商业策略:
在三大方向之外,Han 还热情洋溢地讨论了一个更加宏大的议题——太空经济。
他指出了一个常常被忽视的事实:人类有史以来只在地球-月球系统中生活过,从来没有在这个系统之外存在过。从文明延续的角度看,成为一个多行星物种具有极其重大的意义。
Han 认为,SpaceX 的 Starship 火箭带来了运载能力的几何级增长,这让太空经济从梦想变成了现实可能。他提到了两个标志性的里程碑:NVIDIA 市值超过苹果(标志着AI时代的到来)和 SpaceX 估值可能达到1到2万亿美元(标志着太空时代的到来)。
最终的愿景是什么?"成为一个行星级文明,在太阳系里面自由活动。"当 AI、能源、材料、机器人这些技术线全部会聚的时候,人类向太阳系扩展的物质基础就完全具备了。

Han 在对话中反复强调一个核心观点:未来的发展速度是几何指数级的增长。多条技术树同时推进,互相之间又不断交织,导致文明发展越来越快。
他的原话掷地有声:"未来不会等我们。不管我们同意或者不同意,这都不重要,因为未来就是会加速前进。"
一个有趣的现象印证了这种加速:很多 AI 创业公司在发布产品时,并不是基于当前的模型能力来设计的,而是基于预测中未来 3-6 个月甚至 12 个月后的模型能力。因为他们知道模型能力会突飞猛进,推理成本会下降 99%。这是一种全新的创业思维——不是为现在的限制而建,而是为即将到来的能力而建。
在节目的尾声,Indigo 分享了他对个人发展的建议,这些建议既务实又温暖。

首先,不要焦虑。 在信息爆炸和技术急剧变化的时代,焦虑是最容易产生也最无用的情绪。
其次,想清楚自己想干什么、喜欢干什么——这是最重要的事。 当你找到了自己的方向,所有的 Agent 都应该是帮你实现目标的工具,而不是让你更加分散精力的干扰源。
关于人才市场的变化: 现在的创业公司只招"Senior"级别的工程师,更偏好具有"Founder"特质的人——高能动性(High Agency)和坚持不懈(Persistency)。生产力不再是区分人才的标准,因为AI已经把基础生产力拉平了。真正稀缺的是渠道、受众和注意力捕获能力,也就是个人品牌。
Indigo 的结语充满了信心和温度:尽管挑战巨大,但他和 Han 都对能在有生之年见证这些变革感到兴奋。这不是一个让人恐惧的时代,而是一个充满可能性的时代。关键在于你是否愿意睁开眼睛,看清正在发生的一切,然后找到自己在其中的位置。
回顾这整场对话,从硅谷的天使投资文化聊到 AI Agent 的爆发,从风投估值模型的颠覆聊到人性在技术洪流中的恒常,从 SaaS 的覆灭聊到太空经济的黎明,Indigo 和 Han 为我们描绘了一幅既宏大又细腻的未来图景。
几个核心洞察值得我们反复咀嚼:
关于投资: 最大的风险不是亏钱,而是错过时代标杆公司。在公司成长没有天花板的时代,无论什么估值进入最好的公司都是值得的。
关于创业: AI 让工具更强了,但竞争也更残酷了。水涨船高之下,真正稀缺的是人的意志力、创造力和抓住注意力的能力。
关于 Agent: 我们已经进入了 Agent 互联网时代。不为 Agent 设计的产品将被淘汰。软件将被简化为 Agent 加数据库,中间层的价值将被蒸发。
关于人类: 人性几万年未变。延迟满足的能力——也就是吃苦、坚持、在长期困难中保持奋斗的能力——在 AI 时代不仅没有贬值,反而成了最稀缺的品质。
关于未来: 技术以指数级加速发展,AI、量子计算、新材料、能源技术的会聚将把人类送入一个全新的文明阶段。太空经济不再是科幻,而是正在展开的现实。
这不是一个让你恐慌的时代。这是一个让你做好准备、找到方向、然后勇敢出发的时代。正如Han所说——千万不要悲观。
本文基于 Indigo Talk EP42 对谈内容深度整理创作,力求完整还原对话的每一个核心论点和思考脉络,为读者提供超越视频观看体验的深度理解。
2026-02-02 12:58:23

本期 Indigo Talk 邀请了十几年的老友田鸿飞,他曾是比特币的早期玩家,现在是边缘 AI 的创业者。我们聊到了一台跑图速度是 Mac Studio 7 倍的家用算力盒子 Olares;为什么苹果隐私做得最好却最赚钱;以及 DeepMind 那篇被忽视的论文 —— 超级智能可能从分布式协作中涌现;
录制这期节目的时候 ClawdBot(OpenClaw)还没有火爆,但对谈已经涉及到个人计算的本质:数据应该在哪里处理?隐私与便利真的是一对矛盾吗?当所有人都在追逐单一的超级智能时,分布式智能体的协作会不会是另一条通向 AGI 的路径?在 AI 时代,什么才是真正属于我们自己的?
也许当所有人仰望云端时,真正的革命可能正在你家桌上发生。
Apple Podcast & Spotify 播客 | 小宇宙播客
田鸿飞(Olares 联合创始人 / 远望资本合伙人)
Indigo(数字镜像博主 / 独立投资人)
这是一期关于边缘智能(Edge AI)的深度对谈。嘉宾田鸿飞,Olares 的联合创始人,也是远望资本的创始合伙人。鸿飞与主持人 Indigo 在微博创立期就相识,一个是微博的早期团队成员,另一个正在微博生态中创业,为企业提供营销数据服务。没有人会想到,十多年后,他们会坐在一起,讨论一个听起来像科幻小说的话题:如果每个人都拥有一台 AI 计算中心,超级智能会不会从这些分布式的"小智能"中涌现出来?
录制这期节目的时候 ClawdBot(OpenClaw)还没有火爆,但对谈已经涉及到个人计算的本质问题:数据应该在哪里处理?隐私与便利真的是一对矛盾吗?当所有人都在追逐单一的超级智能时,分布式智能体的协作会不会是另一条通向 AGI 的路径?而最终,在 AI 时代,什么才是真正属于我们自己的?
"我们认识十五六年了,一块穿越了好多时代。" Indigo 回忆道。
那是 2009 年前后,中国互联网正在经历移动互联网的黎明。微博刚刚诞生,正以惊人的速度改变着中国的社交媒体格局。田鸿飞当时的创业项目是在微博上帮企业做营销数据服务 —— 这在今天看来是个再普通不过的 SaaS 业务,但在那个年代,它代表着对新兴平台生态的敏锐嗅觉。
但如果你以为田鸿飞只是一个追逐风口的创业者,那就大错特错了。
2009 年来北京创业之前,田鸿飞在 Oracle 做安全工程师,专门负责加密和公钥基础设施(PKI)的包管理。这个看似枯燥的工作,却为他日后的人生埋下了重要的伏笔。
"当我读到比特币论文的时候,就有种很熟悉的感觉。" 田鸿飞回忆道。那是比特币诞生不久的年代,绝大多数人对这份白皮书背后的密码学原理一无所知,但对于一个长期处理公钥加密的安全工程师来说,中本聪的设计简直是一场密码学的优雅演出。
于是,在微博创业之后,田鸿飞做出了一个在当时看来颇为"离经叛道"的选择:去新疆做比特币服务公司。
"巨早,对,大佬。" Indigo 听到这里忍不住调侃。
这个选择透露出田鸿飞身上一个核心特质:他天生对去中心化的东西有种本能的亲近感。从 20 多年前在学校研究网格计算,到后来做微博第三方应用,再到比特币,他的技术轨迹一直围绕着一个核心主题:分布式、去中心化。
"天生比较反骨吧。" 田鸿飞自嘲道,但这份"反骨",恰恰是理解 Olares 这款产品的关键钥匙。
2015-16 年,田鸿飞转型做投资,投了很多机器人公司。而 Olares的 故事,要从创新工场说起。
Olares 的 CTO 叫彭鹏,是田鸿飞在创新工场的同事。创新工场最早做的项目之一是点心操作系统,后来团队孵化出了涂鸦移动。操作系统,这个词在彭鹏的技术基因里刻得很深。
"我们想做一个边缘智能的、面向 Agent 的操作系统,这是我们可以往回溯到十多年前的初心。" 田鸿飞说。
这个初心有一个具体的历史参照物:Android G1。
"年纪比较大的人都知道,Google 的第一个手机是 G1 HTC。我们现在做的 Olares One,就是一个类似于 Android G1 的、我们第一代 Agent OS 的软硬件结合产品。"
这个类比非常精准。Android G1 在 2008 年发布时,没有人能预见到 Android 日后会统治全球 85% 以上的智能手机市场。它是一个开端,一个可能性的证明,一个"操作系统可以是这样的"的宣言。
Olares 想做的,正是AI时代的"G1"。
在访谈中,主持人把 Olares One 拿到镜头前展示。这是一台和 Mac Studio 差不多大小的银色设备,外观简洁,接口极少 —— 只有一个 Thunderbolt 3、一个 HDMI、一个USB-A 和一个网线接口。
"接口非常少,是因为我们是一个云访问的设备。用户通过浏览器来访问它,不需要插上键盘和屏幕。" 田鸿飞解释道。
这意味着你可以把 Olares One 放在家里的任何角落 —— 书房的柜子里、路由器旁边、甚至藏在沙发后面——只要它连着网络和电源,你就可以在世界任何地方通过浏览器访问你自己的"私人云"。
打开这台设备的规格表,你会发现一些让硬件爱好者眼前一亮的数字:
"我周围好多朋友买 5090 的卡在家里跑生图。" Indigo 说。这正是 Olares 瞄准的市场需求:越来越多的专业用户需要在本地运行大模型,而不是依赖云端服务。
96GB 显存是什么概念?如果你用过本地大模型,你会知道显存是最稀缺的资源。一个满血版的 DeepSeek R1(671B 参数)在4bit量化后大约需要 100-150GB 显存,而一般的消费级显卡只有 12-24GB 显存。96GB 的显存意味着你可以在本地运行绝大多数开源大模型的中型版本,而不需要做太多妥协。

谈到竞品对比,田鸿飞显得相当自信。
"我们跟 Mac Studio Ultra M3 对比过,在运行C omfyUI(一款流行的 AI 图像生成工具)这个生图环节上,我们大概是 Mac Studio 的7倍速度。"
7 倍,这不是一个小数字。
Mac Studio Ultra M3 的售价是 5288 美元,而 Olares One 售价约3000美元。换句话说,Olares 在生图这个场景上,用 60% 的价格实现了 7 倍的性能。
这个性能差异的来源是 GPU 架构的根本不同。Mac Studio 使用的是苹果自研的M系列芯片,采用统一内存架构(UMA),CPU 和 GPU 共享同一块内存池。这种设计在通用计算和能效方面有优势,但在AI推理这种高度依赖 GPU 并行计算的场景下,NVIDIA的 CUDA 架构仍然是王者。
当然,这并不意味着 Mac Studio 是一款失败的产品。苹果的统一内存架构有一个巨大的优势:你可以在一台 Mac Studio 上运行参数量巨大的模型,因为内存容量可以做得很大(最高达192 GB)。但如果你的主要用途是生图、视频生成或其他高度依赖 GPU加速的 AI 任务,Olares 可能是更划算的选择。
"苹果是闭源,我们是开源。"田鸿飞反复强调这一点。
Olares 操作系统是开源的。这意味着:
"有的比较极客的用户,可能会去 AWS 上搞一个 VPS 给装上去,其实也是 OK 的。"田鸿飞说。当然,这样做就牺牲了隐私优势——毕竟你的数据都在 AWS 上了。
开源还有一个更深远的意义:它是构建信任的基础。在一个 AI 模型可能记录你所有对话、分析你所有文件的时代,"开源"不仅是一种技术选择,更是一种价值主张:我们对你的数据没有任何想法,你可以自己验证。
"我们最近刚刚完成 Kickstarter 的众筹,前天才结束。大概卖了不到 250 万美金。"
这个数字远超团队预期。他们原本的目标是卖出 400 多台,结果实际卖出了约 800台。"其实我们远超过我们自己的计划,我对我们还是挺出乎意料的。" 田鸿飞说。
这个众筹结果释放出一个重要信号:边缘 AI 硬件的市场需求是真实存在的,而且可能比大多数人想象的要大得多。在 CES 展会上,Olares 展位的访客聚焦于两个话题:隐私和数据主权。
"本来我以为这是个蛮小众的群体," 田鸿飞坦言,"但超乎我意料之外。"
访谈中,Indigo 直接演示了 Olares 的使用体验。
首先,你需要给你的 Olares 分配一个域名。Indigo 的设备被命名为"REWIRED"——这是他家的名字。通过这个域名,你可以在任何地方、用任何设备的浏览器访问你的 Olares。
打开浏览器,输入域名,回车。一个看起来很像 Mac OS 的桌面出现在屏幕上。
"有点像 Mac OS 一样,但是它是 Web 打出来的,你可以远程访问。" Indigo 描述道。这个界面上有文件夹、应用图标、还有一个类似 Mac Dock 的任务栏。你可以挂载外部存储(比如已有的 NAS),可以安装各种应用,可以运行 AI 模型。
Olares 有一个类似 App Store 的应用市场。打开"AI"分类,你会看到一系列已经针对Olares 优化适配的开源大模型:
"本地能跑的模型上面都能跑。" 田鸿飞说。
除了AI模型,应用市场还提供各种生产力工具:
"我们最重要就是玩 Steam,我们玩黑悟空很流畅的。" 田鸿飞笑道。
这不是玩笑。因为 Olares 内置了高性能 GPU,它完全可以作为一台游戏服务器使用。你在家里放一台 Olares,然后在办公室、咖啡馆、甚至手机上通过 Steam Remote Play 来玩 3A 大作——所有渲染都在你家里的那台盒子上完成,你的设备只需要播放视频流和传输输入信号。
"这是可以装在虚拟机里面跑 Windows,对不对?"I ndigo 问。
"虚拟机是可以的。" 田鸿飞确认。
这意味着 Olares 的使用场景几乎是无限的。它可以是:
"就是一台PC,懂了。" Indigo 总结道。
但它又不仅仅是一台 PC。它是一台你可以远程访问的、为 AI 优化的、开源的、保护你隐私的 PC。这些定语的叠加,创造出了一个全新的产品品类。
Kickstarter 众筹的结果给 Olares 团队提供了真实的用户数据。"我可以给你分享一下已经发生的事情,"田鸿飞说,"我们现在发现有三类用户。"
"第一类用户就是设计师。"设计师是AI图像生成技术的重度用户。无论是 Stable Diffusion、Midjourney 还是 ComfyUI,他们每天都要生成大量图像来做概念设计、素材制作、创意探索。
云端服务的问题在于:
"那就取决于你的工作量多大,对吧?你要买多少 Credit,你愿不愿意在那排队等,你这个一个 G 的图片上去,再等个几个 G 的图片下来,这个速度愿不愿意去等。" 田鸿飞分析道。
而有了本地设备,设计师的工作流程变成了:点击生成,几秒钟后出图,不满意就调参数再来,无限循环,不用担心任何外部限制。
这是一个"一次性买断 vs 按量付费"的经典商业模式对决。如果你是重度用户,买断几乎总是更划算的。
"还有一类用户就是硅谷大量存在这种 AI 工程师,他们每个人都要买一个高性能的机器,回家玩大模型的。"
这类用户的需求和设计师不同。他们不一定是为了"生产"什么,更多是为了"学习"和"实验"。
对于 AI 工程师来说,一台高性能的本地设备是必备工具。它不是用来替代云端 GPU 集群的——那些训练大模型的任务确实需要数据中心级别的算力——但对于日常开发、调试、小规模实验来说,本地设备的响应速度和便利性是无可替代的。
这是最出人意料的用户群体。
"可能我们一般没想到的,就是一般的小企业主。" 田鸿飞说。
他算了一笔账:
更关键的是数据碎片化问题。如果你用 20 个SaaS产品,你的数据就分散在 20 个公司的服务器上。想做一个跨数据源的分析?想让AI帮你整合所有业务数据?几乎不可能。
"用我们的一个东西,一个产品,它可以装 20 个对应的开源软件在我们这个设备上,然后它所有企业的数据在一个地方。" 田鸿飞说。
这正是最近硅谷热议的话题:用 AI 来解决 SaaS 的问题。SaaS 的问题不仅是成本,更是数据孤岛。而边缘设备提供了一种可能性:把所有数据收归一处,然后用AI来统一处理。

在讨论隐私保护时,田鸿飞多次提到苹果。
"苹果的隐私是所有公司里边做得最好的,但是它又是一个最赚钱的公司。"
这句话点破了一个常见的误解:很多人认为,要保护用户隐私,就必须牺牲商业利益;或者反过来,要赚钱就必须出卖用户数据。
苹果证明了这是错误的二分法。
苹果的商业模式是卖硬件。你买了 iPhone、Mac、iPad,苹果就赚到钱了。它不需要你的数据来投放广告,不需要分析你的行为来推荐商品,不需要挖掘你的隐私来变现。
"所有人都选什么公司最安全,那一定是苹果最安全。因为它的商业模式就证明了它是保护你的隐私。因为它是卖设备给你赚钱的,你的设备越安全,你就越信赖它。"田鸿飞说。
这个逻辑链条非常清晰:商业模式决定了公司对待用户数据的态度。
作为对比,田鸿飞提到了另一类公司:社交网络。
"你不像 Facebook,对,或者说中国叫字节或头条,或者说是腾讯,因为他都是在云端的东西来赚钱。特别是头条,你的所有的隐私的行为数据,都是它的商业筹码。"
社交网络的商业模式建立在两个支柱上:
这意味着社交网络有内在的激励去做两件事:让你上瘾,以及收集你的一切数据。
"他不光是侵犯你的隐私,他还侵犯你的思维。" Indigo 补充道。这指的是算法推荐对人类认知的影响——信息茧房、情绪极化、注意力碎片化。
在 隐私光谱上,Google 处于一个有趣的中间位置。
"这 Google 也是侵犯,因为你所有的数据,Google 都要拿去确定它的广告系统。" Indigo 说。
但相比社交网络,Google 有一个关键的区别:它不做那种"消耗时间"的社交信息流。Google搜索是一个工具——你用完就走。它会收集你的搜索记录来优化广告,但它不会用算法把你困在无限滚动的 feed 里。
"如果排行来看呢,肯定是苹果最安全,然后其次是 Google,然后才是 Meta。" 田鸿飞总结道。
理解了这个商业模式的框架,你就能理解为什么边缘计算会成为一种价值主张。
Olares 卖的是硬件。它的商业模式和苹果一样:你买了设备,它就赚到钱了。它没有任何动机去收集你的数据,因为那对它的商业模式没有任何帮助。
更进一步,Olares 是开源的。这意味着即使你不信任团队,你也可以自己审查代码。它的隐私承诺不是一句口号,而是可以验证的技术事实。
"好的隐私保护并不会损害用户的使用体验,"田鸿飞说,"不是说你要为了隐私就要做很多事情,搞得很不好用。"
苹果已经证明了这一点,而 Olares 想在边缘 AI 的领域证明同样的事情。

当所有人都在追逐 AGI 和超级智能时,田鸿飞提出了一个不同的问题:
"我其实不想做那么聪明的一个大模型,我只想做一个最接近于每个人的模型。"
他把这称为"数字孪生"(Digital Twin)。
"我不想这个模型比我聪明,但是它更像、最接近于我。我说话可能喜欢说'对啊对啊',它就应该说'对啊对啊'。"
这是一个被忽视的需求维度。当我们评价 AI 模型时,我们通常关注的是它有多"聪明"——能解多难的数学题,能写多复杂的代码,能通过多少 benchmark 测试。但"聪明"只是一个维度。
田鸿飞给了一个具体的例子:
"当我工作中去给客户写邮件的时候,我希望写一个非常正式的、非常漂亮的邮件,这时候我就用 OpenAI 来帮我写。但是我可能要跟你写邮件的时候,我希望这个大模型模拟我的语气,模拟一个朋友的话来给你写邮件,我就希望一个大模型更像我。"
不同的场景需要不同的"人格"。工作场合需要专业、正式、精确;朋友之间需要随意、亲切、带点个人风格。一个通用的超级智能可以做前者,但后者需要对"你"有深刻的理解。
要创建一个"像我"的AI,第一步是收集数据。
田鸿飞提到他佩戴的 Limitless 设备——一个小小的胸针,可以 24 小时采集他的声音对话。
"然后如果我有一个这个,我再把 Gmail、再把所有我个人的数据都收集在一起,包括其实我 20 多年前的 Hotmail、还有读书时学校的邮箱邮件,我都其实都有保留。"
他想把这些数据——二十多年的邮件、数不清的对话录音、各种社交平台的发言——全部收集到一个地方,然后用AI来学习"他是什么样的人"。
"这个 Agent 可以来代替我在数字社会中做一些事情。" 田鸿飞说。
这个想法引起了意想不到的共鸣。
"前两个星期从 CES 回家的时候,旁边坐了一个波士顿动力的工程师。然后我在说起这个想法的时候,他就说你这想法太好了。"
那个工程师分享了一个个人故事:他的老母亲现在整天对着 Siri 聊天。他想,如果有一个设备,能把她的聊天都记下来,那会是对她一生记忆的一个回忆。
田鸿飞有类似的感触:
"我的老父亲,其实他一生有很多故事。然后我小的时候他在忙,他没时间跟我讲;等他老了退休了想跟别人讲的时候,我其实在家里待的时间很少,他也没时间给我讲。那现在其实我想再有很多故事、想跟他问他以前故事的时候,现在已经不可能了。"
这触及了 AI 的一个深刻的人文意义:它可以帮我们保存那些本会随着时间流逝的记忆。一个人的声音、语调、用词习惯、思考方式——这些本来只存在于亲友的记忆中,会随着记忆的模糊和人的离世而永远消失。但如果有一个AI,在足够长的时间里听过这个人的话、读过这个人的文字,它或许可以成为一种"不完美的永生"。
Indigo 提到了英剧《黑镜》中的一集:
"有一集就讲这个了,你挂个东西把你去世的人的所有东西都收集下来,然后存在里面,有个公司然后把它给复原回来。"
这个剧情在几年前还像是纯粹的科幻,但今天,它的技术基础已经在慢慢成形。
语音合成可以复刻一个人的声音,大语言模型可以模仿一个人的说话风格,多模态AI可以生成一个人的影像。如果有足够多的数据,"数字复原一个人"不再是不可能的事情。
当然,这也带来了深刻的伦理问题:这样做是对逝者的尊重,还是对死亡的否认?"复原"出来的数字人是"他们",还是只是一个模仿品?我们应该用AI来缓解失去亲人的痛苦,还是应该学会接受失去?
这些问题没有标准答案,但技术已经在前进了。
对话进行到这里,田鸿飞抛出了一个更宏大的话题。
"DeepMind 刚刚在 2025 年 12 月发布了一篇论文《Distributional AGI Safety》,就是说当所有人都集中在做超级智能、做单一超级智能体的时候,其实还有一种可能性:超级智能来自于多个没那么智能的智能体的协作涌现出来。"
这是一个根本性的视角转换。
当我们谈论 AGI 时,我们通常想象的是一个单一的、无所不能的系统——像《2001 太空漫游》里的 HAL 9000,或者《复仇者联盟》里的 Ultron。一个中央化的、全知全能的超级智能。
但如果超级智能不是这样产生的呢?如果它是从大量"没那么聪明"的小智能体的协作中涌现出来的呢?

这个思路有一个强大的生物学类比:大脑。
人类大脑由大约 860 亿个神经元组成。单个神经元是非常"笨"的——它只能做简单的加权求和和激活。但当 860 亿个神经元通过复杂的网络连接在一起时,意识、智能、创造力涌现了。
没有哪个神经元是"聪明"的,但整个系统是聪明的。
更宏观一点看,人类社会本身也是这个原理的体现。单个人类的智力是有限的,但当数十亿人类通过语言、文字、互联网连接在一起,通过市场经济进行协作时,人类作为一个整体展现出了惊人的集体智能——我们建造了城市、发明了互联网、登上了月球。
"人其实更多的时候,是人和人之间进行交互,然后共同通过市场经济来达到一个共同的目的。"田鸿飞说。
田鸿飞提到了特斯拉的例子:
"特斯拉在做 100 万个 Human Simulator 来计算,他们一个观点其实很有意思:就是说相对于大家都在做大模型、参数越多越好的时候,他们在做一个小模型。他们的关键是——小模型可以 Iteration 更快,然后我也可以通过小模型之间的协作产生更多的智能。"
这是一个务实的工程选择。特斯拉的自动驾驶必须在车载芯片上实时运行,它不可能依赖云端——网络延迟会让你的车在做出反应之前就撞上障碍物。所以特斯拉被迫走小模型路线。
但这个"被迫"的选择反而可能指向一条不同的道路。
"这个是第一次听说到还有一个这么大的特斯拉在做这个方向,我觉得都是一个很有意义的探索。"主持人说。
讨论到这里,田鸿飞提到了一个业界共识:
"大家现在已经有共识了,就是说现在大模型训练的数据已经把世界上可能用到的数据已经都用完了,他们说叫碰到了数据的墙。然后98%的数据都是在私有的,是没办法被大模型采用的。"

公开互联网上的数据——维基百科、Reddit、GitHub、新闻网站——已经被各大AI公司爬了个遍。但这些只占全球数据的 2%。剩下的 98% 在哪里?
"这里面有相当大一部分数据是在企业的数据库里边," 田鸿飞说,引用了 Oracle 创始人 Larry Ellison 的观点," 他会都在 Oracle 数据库里边,然后是需要得到授权使用的。这是Oracle他们的一个战略,是如何帮企业更好运用数据来训练超级智能。"
还有一部分是个人数据:聊天记录、邮件、照片、语音备忘录、行程记录……这些数据极其分散,格式各异,散落在 Facebook、微信、Gmail、iCloud 的各个角落。
"如果我们大家就用 Olares 的话,我们可以用 Olares 作为一个个人数据的一个集中点。" 田鸿飞说。
这就回到了他们产品的核心价值主张:边缘设备可以成为个人数据的汇聚点,而这些数据可能是训练"真正像你"的AI的关键素材。
田鸿飞抛出了一个惊人的论断:分布式智能体的协作网络已经存在了。
"其实我们最先一个由 Agent 自组织的这样一个交易网络,其实已经有了,已经存在了。我们的交易市场就是 Trading。"
Indigo 秒懂:"现在股票市场的 60% 交易量来自于高频交易,对吧?量化交易。"
这是一个被忽视的事实。当我们想象"AI 协作网络"时,我们可能想的是某种科幻式的未来场景。但实际上,全球金融市场已经是一个由算法主导的协作(或对抗)网络。
在纳斯达克、纽交所这些交易所,每天有数十亿次的交易发生,其中大多数是由算法自动执行的。这些算法——你可以叫它们"交易 Agent" —— 24 小时不间断地监控市场、分析数据、做出买卖决策。
它们之间没有"合作"的意图,每个 Agent 都只是试图为它的主人赚钱。但当成千上万个Agent 在同一个市场中交互时,一种复杂的集体行为涌现了:价格发现、流动性提供、风险定价……这些都不是任何单一 Agent "设计"出来的,而是从它们的集体交互中涌现出来的。
田鸿飞提到了一个有趣的公司:Numerai。
"最近有一个公司叫什么来着,他把所有的大模型跑去做交易。那公司本来我以为他是一个搞着玩的,后来我读了一下他们公司的博客,后来发现他们还是一个蛮严肃的做 AI 研究的公司。"
Numerai 的逻辑很有意思:他们认为金融市场的博弈是最难的AI任务之一,因为它是零样本学习的——市场永远在变化,历史数据的模式可能在下一秒就失效。所以他们把各种大模型放进这个"试验场",用真实的市场反馈来测试和改进 AI。
这是一个"让市场来检验 AI"的思路,而不是传统的"在学术 benchmark 上刷分"。
对话到这里,主持人做出了一个犀利的总结:
"所有人类都被淘汰出局,最后只剩机器跟机器在上面搏斗。"
田鸿飞认同这个观点:"其实这个已经在发生了。"
如果你是一个个人投资者,你可能还在用 K 线图、财报分析来做投资决策。但你面对的对手是什么?是能在毫秒级别做出反应的高频交易算法,是能同时分析成千上万条新闻的 NLP 模型,是有着 TB 级别历史数据和超级计算集群支撑的量化基金。
"我个人建议就是个人散户你就别进去在里面做高频交易跟 Agent 去搏斗了。"田鸿飞说,"对于人类来说,人类以后叫做投资,你做中长线就好了,做时间的朋友。"
这是一个务实的建议。在某些领域,人类已经不是 AI 的对手。但这不意味着人类完全出局 —— AI 在长期价值判断、战略思考、跨领域整合方面仍然不如人类。人类应该做的是找到自己的比较优势,而不是和 AI 在它擅长的领域硬碰硬。
"段永平前两天提到了这个事。" 田鸿飞提到了中国知名投资人的观点。价值投资的核心是理解企业的长期价值,而不是预测短期价格波动。前者仍然是人类的领地,后者已经是机器的战场。
特斯拉可能是世界上最大的边缘 AI 公司——它的每一辆车都是一个自主运行的 AI 系统,在本地处理感知、决策、控制。
Indigo 引用了一个 xAI 小工程师的采访(这里指的是 Sulaiman Ghori 的访谈):
"他说 Elon Musk 给他们的指令就是:人就是机器做得更好的事情,坚决不要人做。"
具体到数字,是这样的:只要比人快 8 倍,商业模式就成立。
"任何 Digital Work 的时候,比人快 4-8 倍,那这个商业模式就成立,就是我们一定会雇佣这个 Digital 的东西而不用人。" Indigo 解释道。
这是一个极其简单的商业逻辑。如果一个 AI Agent 能在同样时间内完成人类8倍的工作量,那么即使它的能力只有人类的 80%,它的性价比仍然是压倒性的。
"所以他脑子是很简单,就这样算算数就好了。" Indigo 说。
这意味着 AI 不需要比人类"更聪明"才能取代人类的工作 —— 它只需要"足够快"。
Indigo 提到 xAI 的一个内部代号:Microhard。
"他说 Microhard,我要替代微软的,微软所有业务都可以用这个 AI 实现。"
这是一个惊人的野望。微软是全球最大的企业软件公司之一,它的 Office 套件(Word、Excel、PowerPoint)几乎是每一个白领的日常工具。如果特斯拉能用 AI 做出一个"更好的 Office" —— 或者更准确地说,一个让你根本不需要打开 Office 的 AI 助手——那将是对整个企业软件市场的颠覆。
"再比快 8 倍。" Indigo 补充道。
这就是 xAI 的逻辑:用足够快的 AI 来替代人类的数字工作,从而颠覆整个企业软件市场。这和 OpenAI、Anthropic 的路线完全不同 —— 后者在追求越来越"聪明"的模型,而特斯拉在追求越来越"高效"的执行。
田鸿飞指出,这是特斯拉(或者说 Elon Musk)一贯的方法论:
"他用把 SpaceX 的这个模型再玩了一遍。用 off-the-shelf、最简单最便宜的材料来做大家都本来以为很难的事情。"
SpaceX 革命性的地方不在于它的火箭多先进,而在于它用了大量"现成的"、"便宜的"组件,然后通过软件和系统集成来实现性能。特斯拉的 AI 可能也是同样的思路:不追求最前沿的模型,而是用"够用"的模型做极致的工程优化。
"用特斯拉的 144 TOPS 的这个机器,这个人类模拟器,来解决 Office 的 Work。这个是蛮有意思的。" 田鸿飞说。
讨论到这里,一个更宏观的图景浮现了出来:世界上边缘算力最大的公司是谁?
田鸿飞给出了他的排名:
"所以我是这样看这两家公司的,他们两家公司都是边缘算力巨头。"田鸿飞说。
然后他加了一句:"还有我们。"
Indigo 笑了:"给你立了很大的榜样。"
这不完全是玩笑。Olares 的愿景正是成为边缘AI领域的一个重要玩家。当然,和苹果、特斯拉相比,Olares 目前的规模微不足道。但如果"边缘AI"真的成为下一个计算范式,那么今天的小玩家可能成为明天的巨头——就像 Google 在 2004 年只是一个搜索引擎,但后来成为了整个互联网的基础设施。
对话的最后,主持人问了一个终极问题:
"你觉得在AGI、在超级智能到来的时代,边缘智能会是一个什么样的协同网络?"
田鸿飞的回答从一个物理学原理开始:
"Elon 说的一个很对:既然光速是有限制的,光速是有极限的,那么就不会出现一个垄断一切的超级智能。"
这是一个深刻的洞察。科幻小说里经常描绘一个无所不在、无所不能的超级智能,但物理学给这种想象设定了一个硬性上限:信息传递需要时间,而光速是信息传递的极限速度。
如果你在北京运行一个 AI,它想获取纽约的数据,光纤中的光至少需要几十毫秒才能跑完这段距离。如果它想控制月球上的机器人,信号往返需要 2.5 秒。如果它想影响火星上的任务,延迟是 4 到 24 分钟。
"因为你总是有上限嘛,那上限大家都会到上限,那上限我们怎么竞争呢?"田鸿飞说。
这意味着即使 AI 变得无限聪明,它也无法摆脱物理学的限制。在足够大的空间尺度上,中心化的控制是不可能的。分布式、去中心化的架构不仅是一种选择,而是一种必然。

"你能到达光速,我也能到达光速,那我们迟早要 PK 嘛。" Indigo 说。
这是博弈论的经典逻辑。如果每个参与者都能达到某种能力上限,那么最终的结局不会是某一方的绝对胜利,而是某种形式的均衡。
在 AI 的语境下,这意味着不会出现一个"统治一切的超级智能"。更可能的场景是多个智能体——有的在云端,有的在边缘,有的代表个人,有的代表企业——在某种协议框架下共存、竞争、协作。
"所以说不会存在这样一种超级智能,"田鸿飞说,"如果我们把智能推到极限,那我们就是每一个端侧的智能,或者服务器端的智能,你只要足够好、性能足够强大,那你就会——我们是均衡的力量。"
对话的最后,两位老友勾勒出了他们共同的愿景:
云端将存在具有极高推理能力的大模型,因为数据中心的算力确实更大。但这些"超级智能"不会垄断一切。
边缘将部署大量的"次级智能",它们在本地处理日常任务、保护个人隐私、快速响应交互需求。
两者之间通过某种协议进行协作。边缘智能可以调用云端的大模型来处理复杂任务,云端模型可以利用边缘设备产生的数据来持续学习。
"以后我们互联网就不叫做互联网了,应该叫做 Intelligent,叫智能 Web。" Indigo 补充了一个更具体的场景:
"以后网站我开发一个服务,我都不是给人用的嘛。你看你现在 Computer Use,然后去看人类用的那些网站。如果说我想更高效,那我的 Agent 和你的 Agent,我们访问你的服务,我就一套 API,或者是一个什么 MCP,或者一套 Skill 协议就搞定了。这通讯效率巨高,所有东西都会可能是十倍百倍的提效。"
这描绘了一个 Agent-to-Agent 的世界:网站不再是为人类设计的图形界面,而是为 AI设计的 API 接口;交互不再是人类点击按钮,而是 Agent 之间的协议通信;效率的提升不是 10%、20%,而是 10 倍、100 倍。
当 Agent 开始代替人类进行交易时,支付系统也需要改变。
"Agent 支付肯定是用 Crypto 支付嘛。"Indigo 说,"直接绕过人类这一层了,都不需要人类的这个 KYC 的。"
这是区块链技术可能找到的一个真正的应用场景。人类的支付系统建立在身份认证(KYC)和法规合规的基础上,但 Agent 不是人——它没有护照,没有社会安全号,没有银行账户。如果 Agent 需要支付另一个 Agent 的服务费用,用传统的金融系统是极其笨拙的。
而加密货币天生适合这个场景:它是可编程的,不需要中间人,可以在毫秒级别完成清算。
"我们 Olares 的 ID,其实是基于区块链的 DID(去中心化身份)设计的。" 田鸿飞说,"我们虽然不是一个区块链企业,但是我们其实用了很多区块链的技术。我们有个信仰,是觉得未来的 Agent 和 Agent 之间的协作,如果是基于市场机制的协作的话,很可能会需要用到代币去支付对方的费用。"
这就闭合了一个逻辑环:边缘设备产生数据和执行任务,AI 模型提供智能,区块链提供身份和支付基础设施,所有这些组件通过开放的协议连接在一起,形成一个去中心化的智能网络。
这场长达七十多分钟的对话,从一款边缘 AI 设备开始,最终触及了关于智能、隐私、去中心化和人类未来的根本问题。
田鸿飞的技术轨迹 —— 从网格计算到比特币,从创新工场到 Olares —— 贯穿着一个一以贯之的理想:分布式、去中心化、个人主权。这不仅是一种技术偏好,更是一种价值主张:在一个日益中心化的世界里,个人应该有能力掌控自己的数据、自己的计算、自己的数字存在。
Olares One 只是这个理想的一个具体载体。它可能成功,也可能失败,但它代表的方向 —— 边缘 AI、个人云、分布式智能 —— 几乎肯定会继续发展。
当所有人都在仰望云端的超级智能时,也许我们应该低下头看看:真正的智能革命,可能正在我们每个人的桌上、口袋里、家里的角落中悄然发生。
正如田鸿飞在对话结束时说的:
"边缘算力以后是这个智能世界最大的一个趋势。云端他可能在做,但云端他也会把模型慢慢训练好然后边缘去部署。然后边缘会生成大量的硬件出来,最后来做计算。"
我们正站在一个分岔路口。一条路通向中心化的超级智能,由少数科技巨头控制;另一条路通向分布式的智能网络,由无数节点共同涌现。历史会证明哪条路是对的,但至少,选择权仍然在我们手中。
毕竟,光速是有限的,而人类的想象力不是。
本文基于 Indigo Talk 播客第 41 期整理创作,嘉宾:田鸿飞(Olares 联合创始人)
2026-01-26 12:01:46

本文整理自「孤独大脑」主理人老喻的“人生复利花园” 2026 一月内部直播转录。
主持人老喻是一位长期关注人生复利方法论的思考者,得到畅销课程「人生算法」的主讲人,嘉宾 Indigo 则是微博创始团队成员,如今活跃于 AI 领域的投资与研究前沿。两人的住所在温哥华仅相隔几分钟车程,这种地理上的亲近也延伸到了思想上的共鸣。
这场对话的起点,是一个令人不安却又无法回避的观察 —— AI 已经成为全世界最大的变量,而且"看起来刚开始"。
老喻做了个比喻;现在的世界,特别像海啸来临之前那种令人意外的平静。一方面,人们觉得 AI 很厉害;另一方面,又觉得"跟我有啥关系"。一方面,AI 已经成为最好的老师;另一方面,孩子们回到家里还在背三字经。
这种奇怪的割裂感,恰恰说明了我们正处于一个巨大变革的前夜。
整个对谈约 2 小时,涵盖了 AI 投资、个人成长、职业发展、教育、一人公司、乐观心态和 2026 年科技预测等多个主题。老喻完整的十七个问题和简要答案,请看文章后半段 👀
Apple Podcast & Spotify 播客 | 小宇宙播客

Indigo 在对话开始时,引用了一位法国学者的理论。这位学者生活在一战与二战之间那个动荡的年代,他提出了一个观察世界的独特框架。
这个理论将影响历史的因素分为三个层次:
短期 —— 个体与事件。一个总统的任期是四年,一场选举的结果可能很快就会被遗忘。这些是历史的泡沫,浮在最表面,看起来热闹非凡,实际上对长期走向的影响有限。
中期 —— 潮流与趋势。经济周期的起伏、社会思潮的变迁、政治格局的调整。这些变化需要数年甚至数十年才能显现其全貌。
长期 —— 力量与洋流。地缘、气候、人口——这些是决定历史走向的底层结构。它们像大海深处的洋流,表面上看不见,却决定了整个海洋的温度和流向。
但这位学者生活在 20 世纪初期,那时刚刚经历第二次工业革命,电力才开始普及。他无法预见的是,在 20 世纪之后,科技本身已经从一种"潮流"演变成了一种"力量"——它不再只是历史的配角,而是成为了决定文明走向的深海洋流。
人类文明的发展曲线,在过去几千年里几乎是平的。农耕文明延续了数千年,普通人的生活方式代代相传,几乎没有本质变化。
然后,蒸汽机出现了。
这条曲线开始上扬。电力革命让它变得更陡。计算机时代让它再次加速。互联网、移动互联网,每一次技术跃迁都在缩短曲线变陡的周期。
而我们这一代人,不管是几零后,恰好活在这条曲线最陡峭的位置上。
Indigo 引用了康波周期理论来解释这个加速过程。康波周期是一种长达 50 - 60 年的经济周期,每个周期都由一项核心技术驱动;
第五个周期见证了个人电脑的普及、互联网的兴起、移动互联网的爆发。Indigo 作为微博创始团队成员,亲历了互联网和移动互联网两次浪潮。但他坦言,回头来看,移动互联网"充其量只算是信息传递和收发的革命"。
我们确实能够 24 小时获取信息了,可以看视频、点外卖、叫车 —— 都可以在手机上完成。这当然是巨大的变革。但仔细想想,移动互联网并没有真正革新我们的生产力。真正的生产力变革,其实来自更早的PC时代;微软操作系统、云计算、各种生产力软件。
而 AI 革命的不同之处在于:它直接从生产力开始。

老喻在对话中提出了一个极具洞察力的观点:我们过去谈论技术进步,习惯用一种"并列叙述" —— 蒸汽机、电力、计算机、互联网、人工智能。这种叙述方式把它们放在同一条时间线上,好像AI只是这条线上的最新一个点。
但这种理解可能严重低估了AI的颠覆性。
AI 不是这条线上的一个新节点,而是会倒过来,把移动互联网、互联网、电力、机械,甚至农耕文明、甚至生命本身,全部反包掉。
什么叫"反包"?就是 AI 可能会用全新的方式,重新发明这些东西。
想想看,AI 可以设计更高效的芯片,可以优化电网的运行,可以发现新材料、新药物,可以重新理解生命的运作机制。它不是站在前人肩膀上的又一个巨人,而是一个可以回头去改造所有肩膀的存在。
这就是为什么 Hinton(深度学习之父)说 AI 革命"至少和电力革命一样重要",而且"有可能超过电力"。因为电力给我们提供了能量和动力,而AI给我们提供了智力。
这两样东西,根本不在一个维度上。
当然,正如 Indigo 指出的,AI 要做好也离不开电 —— 现在这两样东西是环环相扣的。但智力的赋能,其潜力是无法估量的。
一个有趣的现象是,不同的人对 AI 的感受截然不同。
有些人觉得 AI 简直是神器,彻底改变了他们的工作方式;有些人觉得 AI 不过是个"聊天机器人",问点问题回答得还不太靠谱。
Indigo 用一个生动的比喻来解释这种差异;AI 的能力分布是锯齿状的,像一个齿轮。有些地方特别厉害,可以拿数学奥赛金牌;有些地方却很弱智,连句子里有几个字母都数不清楚。
这种锯齿状的能力分布,导致不同人的体验完全不同——取决于你的工作恰好落在齿轮的高点还是低点。
程序员群体受到的冲击最大,也最早感受到AI的威力。一个程序员用 AI 辅助编程,生产力可以提升数倍甚至十倍。
在线客服、自动化营销、内容创作 —— 这些领域也在快速被 AI 重塑。
2026年的重点方向是科研。AI 正在加速科学发现,从药物研发到材料科学,从蛋白质结构预测到数学定理证明。
但如果你的工作不需要太多"第三方智能的支持",你可能就觉得 AI 不过如此 —— 只是一个陪你聊天的机器人而已。
这种感知差异是正常的,但它不代表 AI 不重要。它只是说明,变革正在以不均匀的方式渗透进不同的领域。

老喻分享了一个让他深受触动的亲身经历。
他在去年做了一个小范围测试项目——一个线上的"人生复利行动营"。这个项目工作量巨大,涉及大量交互设计和一对一深度测评。
他用了大约两个周末的时间,通过复杂的提示词工程,加上一点 Vibe Coding(一种 AI 辅助编程方式),完成了整个项目。
他是一个外行,不是技术人员。但他做出来的东西,如果换在过去,需要一个二三十人的技术团队,干半年到一年才能完成。而且从结果来看,传统团队做出来的可能还达不到他现在这个水平。
这种生产力的跃迁,是实实在在的。
它不是 PPT上 的概念,不是媒体的炒作,而是一个普通人在两个周末里亲手触摸到的未来。

对话中提到了一个有趣的故事;Elon Musk 在 2025 年经历了一次重要的思想转变。
我们知道,Musk 曾经投身于美国政府效率部(DOGE)的工作,试图削减政府开支、裁减冗员。他像整治 Twitter 一样,想要整治美国庞大低效的官僚系统。
但后来,他发生了一个特别大的转变。
这个转变的催化剂来自他亦敌亦友的 Peter Thiel。Peter Thiel 给 Musk 灌输了一个关键的概念;
"老马你根本就别操心这些事。这些事是操心不完的。反正蠢人是没法救的。"
这话听起来刻薄,但 Peter Thiel 的核心论点是;AI 可以把这些问题全部解决掉。AI 带来的生产力释放——10 倍、100 倍、10 的n次方——会让所有的担心都变得不再重要。
与其去和官僚系统死磕,不如把精力放在推动 AI 发展上。
Musk 后来在 All-In Podcast 里反思这段经历时说了一句让 Indigo 印象深刻的话。他说那些人"已经蠢到无药可救了,我没必要这样"。
然后呢?Musk 回到了特斯拉,不再去白宫睡地板了。他在自己的 AI 项目上下了重注——Grok(xAI 的 AI 模型)现在已经成为老喻用得第二多的 AI 工具(第一是 Gemini)。而且进步速度肉眼可见,越来越好用。
这个故事的启示是:即使是美国那样看似无解的巨额国债和社会问题,在 AI 乐观主义者看来,也是可以通过技术进步来解决的。
发展 AI,用 AI 来解决问题 —— 这成了 Musk 的新策略。
说到 AI 乐观主义的源头,不得不提 Deepmind。
Deepmind 成立的时候,第一位投资人正是 Peter Thiel。Peter Thiel 后来邀请 Musk 一起投资,但 Musk 当时似乎没看上这个项目,把它推给了 Larry Page(Google 创始人)。Deepmind 的创始人 Demis Hassabis 后来开玩笑说;"这个人只想去火星,不关心我们这个东西。"
但 Deepmind 成立之初就有一个极其宏大的愿景;
"先解决智能问题,再解决人类所有问题。"
这句话现在看来几乎是一种预言。Deepmind 要做通用人工智能(AGI),解决智能这个根本性问题,然后用它来解决其他所有问题。
这不是狂妄,而是一种建立在技术基础上的乐观主义信念。
Indigo 引用了英国理论物理学家 David Deutsch 的观点来阐述他的乐观主义立场:
"我们人类肯定有解决不完的问题。问题是不可避免的。但问题是可以解决的。"
这是乐观主义的核心;我们永远有解决不完的问题,但我们也永远可以把问题解决掉。如果不是这样,社会就是一个静态社会,静态社会是无法进步的。
Indigo 说他和 Elon Musk 的乐观程度差不多。他是一个彻底的科技乐观主义者。

对话中有一个特别动人的故事,关于"深度学习之父" Geoffrey Hinton。
现在的 Hinton 是 AI 领域的泰斗,诺贝尔奖得主,但他早年有过一段特别艰难的时光。
当时,深度神经网络被主流学术界认为是死胡同。这种方法被认为"走不通","不够优雅","理论基础不足"。Hinton 和他的同伴们甚至不敢用"神经网络"这个名字 —— 因为听起来像骗子 —— 所以他们另起了一个名字叫"深度学习"。
他们被美国学术界边缘化,最后跑到加拿大 —— 被 Indigo 戏称为"傻国家" —— 才勉强找到容身之所。
有一次,Hinton 去一所美国大学(可能是卡内基梅隆)求职。他找到系主任,开口就说;"我只要一半的薪水。"
系主任有点心动。
但 Hinton 是个诚实的人,他接着说;"我得向你承认一件事 —— 我不是很懂计算机。"
一个做 AI 研究的人,不懂计算机?这听起来很荒唐。但系主任说:"没关系,我们这有的是懂计算机的。"
过了一会儿,Hinton 又补充道;"我还得向你承认一件事 —— 我的数学也不是很好。"
这就更荒唐了。做 AI 研究,又不懂计算机,数学还不好?
但事实上,Hinton 确实把很多数学工作交给了他的本科生和博士生来做。他自己的强项是深度思考 —— 他能看到别人看不到的东西,能相信别人不敢相信的东西。
故事的转折点来了。
面对这样一个看起来"毫无前途的方向"和一个"看起来特别不靠谱的人",那位系主任最终还是决定录用 Hinton。
为什么?
因为他脑海里冒出了一个念头:
"万一这个疯子对了呢?"
这是一个极具智慧的思考方式。作为前沿领域的探索者,很多事情看起来像小火种——要么熄灭了,什么都没有;要么一旦成功,就是彻底颠覆性的改变。
系主任做了一个聪明的决定:他押注在"万一"上面。
后来的事情我们都知道了。深度学习在沉寂多年后爆发,AlexNet 在 2012 年的ImageNet 竞赛中碾压传统方法,开启了 AI 的新纪元。Hinton 成为了 AI 教父,他的学生们(包括 OpenAI 和 Google 的核心人物)改变了世界。
在个人的思考层面,保持怀疑和批判是可以的,甚至是必要的。但在人生的决策层面——财务决策、工作决策、学习决策——我们应该假设"这个疯子可能是对的"。
正如 Indigo 所说;即使现在所有 AI 研发公司都停下来,什么都不干,现有模型的能力都够这个世界消化 5 年。
可能 5 年之后,这个世界都还没准备好。

一个关键的洞察是;虽然AI技术本身进步飞快,但 AI 重塑社会结构的速度要慢得多。
一项新技术从研究室走向大众,需要经历一个漫长的渗透过程:
这是一个物理效应,是社会结构本身的特性。即使有了互联网,信息传播快了很多,但你要渗透几十亿人口、无数企业和机构,不是一两年的事情,而是 5 年、10 年、15 年、甚至 20 年。
这个时间差,正是普通人的机遇窗口。
Indigo 提出了一个发人深省的假设:
如果今天我们把 AI 研究暂停,现有模型的能力,够我们消化 5 年。
这不是夸张。想想看;
这些能力已经在那里了,但大多数人、大多数企业、大多数行业还没有真正学会如何利用它们。
这个消化过程,就是机遇所在。
Indigo 的建议很直接:至少要持有这些 AI 龙头公司的股票,成为它们的股东。
不是炒股票那种 —— 今天买明天卖。而是真正的股东心态,长期持有。
因为如果 AI 真的像我们分析的那样是改变世界的根本性力量,那么不参与其中,本身就是一个巨大的风险。
你不需要成为 AI 专家,不需要自己创业做 AI 公司,但你至少可以通过投资,让自己站在这股浪潮的正确一边。

对话的后半部分,话题转向了决策和选择。
Indigo 分享了他对自己的一个重要认知;"我从来做不了CEO。"
这句话说出来需要勇气。在很多人看来,承认自己在某件重要的事情上"不擅长",是一种示弱。尤其对于一个年轻气盛的人,这种自我否定很难启齿。
但这恰恰是做出正确决策的前提。
老喻总结了他的"人生复利方法论"中的一个核心引擎;
To Be → To Choose
也就是:先定义"我要成为什么样的人",然后才是"我做出什么选择"。
这里的"To Be"有点像莎士比亚所说的 —— 关于存在,关于人生的意义,关于"我这辈子到底要成为什么"。
如果你不清晰地定义自己是什么样的人,你就很难做出正确的选择。
老喻提到了另一位朋友的例子,一个做二级市场投资的人。
这位朋友很早就发现自己"干不了实事" —— 你让他做具体的事情,他都很烦。
对一个男性而言,承认这一点可能更难。社会期待男性是"实干家","能做事的人"。
但这位朋友很坚定地认定了这一点,然后专注于做二级市场投资 —— 纯粹的脑力劳动,不需要管理团队,不需要处理具体事务。结果呢?他做到了百亿级别的规模。
自知之明是做出正确决策的前提。
如果你不知道"正确的我"是什么,你就很难做出"正确的决定"。
Indigo 坦言是一个适合当 CEO 的人。CEO 需要"一根筋",需要对一件事情极度坚持。但他的性格是"想法比较多,点子比较多" —— 更适合做策略提供者、方向建议者,而不是一线的执行者。
认识到这一点后,他选择了做投资,而不是继续创业。投资更灵活,更符合他的风格。
离开微博后,他帮助了很多人做不同类型的公司 —— 包括李佳琦背后的团队 —— 以提供策略和方向的方式参与,而不是亲自下场当 CEO。
这是一个基于自我认知的聪明选择。
老喻问 Indigo:你的乐观是一种天性,还是一种主动的选择?
Indigo 的回答是:性格占了很大一部分。
他在一个有安全感的家庭中长大。童年的安全感,会深刻地影响一个人成年后的心理底色。那些在充满爱和稳定环境中长大的人,更容易对世界保持基本的信任和乐观。
这是乐观的第一层来源:早期经历塑造的性格特质。
但乐观还有第二层来源,这是成年人可以主动选择的:科技乐观主义。
这是硅谷的主流思维方式。它建立在一个核心信念上:我们正处于一个加速时代,科技进步的速度越来越快。在这样的时代,如果你还很悲观,你就会错过所有机会。
所以你要"强行让自己乐观起来"。
这听起来有点像自我催眠,但 Indigo 的表述更有深意:"相信这些东西,它真的就会成为真的。"
这不是盲目的乐观,而是一种基于理性分析的选择;既然大趋势是向上的,既然技术进步是可预期的,那么乐观就是一种更聪明的立场。
对话中引用了一句著名的话:"悲观者永远正确,乐观者才会成功。"
悲观者当然正确 —— 说这个不行、那个不好,总能找到证据。因为世界上的问题确实无穷无尽,挑毛病永远是最容易的事情。
但问题是;悲观除了让你"正确",还能给你带来什么?
它不会让你创造任何东西,不会让你抓住任何机会,不会让你的生活变得更好。
乐观者向前走。乐观者尝试。乐观者有时候会失败,但乐观者也会成功。
主持人的总结很精辟;不选择乐观其实是一个很愚蠢的事情。咱们就活这么短,何必让"这不好那不好"的想法占据我们的人生?
生命的本质意义,是在荒漠中去寻找甘泉,去发现微弱的幼苗。
对话的最后部分,Indigo 分享了他对 2026 年的十个预测。这些预测基于他作为投资人的专业视角,每一条都值得关注。
2025 年的 AI 关键词是"Agent"(智能体)和"推理"(Reasoning)。2026 年,**持续学习(**Continual Learning)将成为核心研究方向。
持续学习是指让模型能够动态地、不停地自我演化,而不是训练一次就固定下来。这是通向真正智能的关键一步。
Indigo 特别提到,这个领域最好的团队在阿尔伯塔大学(也是强化学习之父 Richard Sutton 所在的地方) 和 Gemini。
在大模型公司的竞争中,Indigo 预测 Grok(xAI)会在 2026 年显著进步。
2025 年,Google 翻盘了,在主流评测中表现亮眼。2026 年,Grok 也将迎来自己的突破时刻。
同时,各家模型公司会形成更清晰的差异化方向:
2026 年将是 Agent 电商真正落地的一年。
我们现在已经能在聊天界面里点外卖、买东西。这种趋势会加速。Indigo 预测,大约50亿美元的广告或交易量将来自于用户在 chatbot 对话中产生的购买 —— 让 Agent 自动帮你买东西。
这是巨大的市场。麦肯锡的预测显示,电商仍然是世界上最大的生意。而服务于这个最大生意的 AI 工具,必然要吃下这个最大的市场。
对投资者来说,2026 年要密切关注 Google、OpenAI 等公司如何在 Agent 支付和购物领域展示实力、优化体验、创造收入。
2026 年下半年或年底,将有一款深层次的世界模型游戏惊艳亮相。
世界模型(World Model)是指 AI 能够理解和模拟物理世界运作规律的能力。将这种能力应用于游戏,可以创造出前所未有的沉浸式体验。
Indigo 特别看好 xAI 的游戏工作室 —— Musk已经"藏了一年多了",2026 年应该会发布一些产品计划。
更重要的是,Indigo 认为 AI 驱动的互动游戏未来会超过电影的所有总和。因为我们以后会"生活在"这种世界里面。
2026 年,AI 将独立完成一个真正的科学发现 —— 自己发现问题、自己研究、自己做调研、完成一个真正的科学突破。
这是 AI for Science 的里程碑时刻,Indigo认 为至少会完成一个。
他特别强调:AI 的 To C市场(面向消费者)不要再跟巨头抢了,更多机会在前沿市场—— 科研、企业服务、世界模拟。
为什么?因为 TOKEN 消耗的经济价值不一样。一个博士生研究员花费的 TOKEN,产生的经济价值远远高于普通人的日常聊天。
"你那两个问题怎么可能有科学家的问题值钱呢?"
2026 年可能会出现一次震惊世界的 AI Agent 网络攻击。
随着 AI Agent 能力的增强,它们被用于网络攻击的风险也在增加。自主决策、自主执行的 Agent,可能被恶意使用者用来发动前所未有的网络攻击。
这是 AI 发展的阴暗面,也是我们必须警惕的风险。
一个有趣的地缘政治预测,AI 中立国会出现。
就像核武器时代有中立国一样,AI 时代也会有国家选择"两边都采用,保持平衡"的策略。
美国和中国都有强大的 AI 能力和自己的模型。但很多国家没有。这些国家不能把自己的数据基础设施、智能基础设施都押注在某一方身上。就像印度同时购买美国和俄罗斯的武器一样,它们会采取平衡策略。
2026 年,这会成为一个很现实的问题,会有很多相关的新闻出现。因为 AI 再发展两个季度,它的能力就基本上是国防级实力了。
2026 年将是 Robotaxi 真正落地的一年。
自动驾驶出租车会在美国很多城市普及,这是自动驾驶技术成熟的重要信号。
2026 年会有大量机器人公司出现,行业将迎来一波热潮。
但 Indigo 也警告;这个行业泡沫非常多。泡沫不一定在 2026 年破裂,但投资者需要保持警惕。
Indigo 强调,他所有的预测都是从投资视角出发的。他主要做这个行业的观察和投资,所以分析自然带有投资人的色彩。
至于政治和经济的预测,"在微信直播里也不好说",所以他没有做太多展开。

对话临近尾声时,老喻分享了一个让他印象深刻的小故事。
大约在 2003 - 2004 年,他还在做房地产的时候,读到一本美国人写的书。书里引用了一个人的一句话。这个人当时毫无名气,主持人周围没有任何人听说过他。但那句话说得太好了,主持人把它用在了公司内刊的卷首语上。
多年以后,他才知道这个人是谁;Elon Musk。
那时候是互联网刚刚兴起的时代,Musk 说的话是;
"互联网是一个正在改变世界的、特别巨大的事情。我的态度特别简单——我不管怎么样,我得跳进去。我不想做一个旁观者。"
这句话放在今天的 AI 时代,依然振聋发聩。AI 正在改变世界,这已经不是需要争论的话题了。问题是;你要做一个旁观者,还是参与者?
老喻的总结是;
我觉得在这个 AI 的时代,我们应该快乐一点,像 Indigo 这样乐观一点,参与其中。想一想 AI 如何能够让我们自己变得更好。我们应该去享受它,享受它给我们带来的美好的那一面。
问题1 | 时间戳:00:06:22 - 00:06:44
问题内容:你说过决定历史的不是表面上的泡沫,而是深海的洋流。能不能描述一下你认为真实世界暗潮涌动的这些大海深处的洋流到底是什么?
Indigo 引用法国学者的理论,指出历史由地缘(地理、气候、人口)决定。自工业革命后,科技已从"潮流"变成"洋流"——成为决定社会结构变化的深层力量。AI 革命的意义比移动互联网大得多:移动互联网只是信息传递革命,而AI直接变革生产力。AI能力呈"锯齿状"发展,部分领域已能拿数学奥赛金牌,但在某些简单任务上还有欠缺。
问题2 | 时间戳:00:13:51 - 00:14:23
问题内容:你会相信AI治万病吗?所有东西都可以搞定?你会乐观到什么程度——是木头姐的程度、Peter Thiel的程度、还是Elon Musk的程度?
Indigo 表示自己与 Elon Musk 一样乐观。他引用 DeepMind 创立时的愿景:"先解决智能问题,再解决人类所有问题"。AI 革命超过之前任何一次科技革命,电力给人类能量和动力,而 AI 给人类智力。引用物理学家戴维·多奇的观点:"问题不可避免,但问题可以解决"——这是乐观主义的核心。
问题3 | 时间戳:00:19:59 - 00:20:18
问题内容:普通人该怎么办?这太快了,感觉这块肉就是大公司给吃了。对普通人和家庭,如果从投资的角度,能给到一些建议吗?
Indigo 指出 AI 对社会结构的渗透很慢,需要 5-15 年。即使现在 AI 研究暂停,现有模型能力也够消化5年。从投资角度:(1) 房产应自住为主,可用抵押贷款做杠杆投资其他资产;(2) 美股 ETF 是跟上科技变革的好方式;(3) 看准代表时代的龙头公司 —— 英伟达和谷歌未来 10 年可能主导,就像苹果主导了2010-2024年的移动互联网时代;(4) 中国看好字节、腾讯和阿里。
问题4 | 时间戳:00:32:36 - 00:33:03
问题内容:数据中心投资超过写字楼,资产逻辑正在切换。能不能分享一下这个资产逻辑的切换?
2018 年物流仓库建设超过购物中心,现在数据中心超过写字楼——这反映了生产力工具的转变。年轻人(2000年后出生)对房产认同感低,更倾向于数字资产(Crypto等),这是对"旧世界资产被囤积"的反抗。老喻补充了自己的定义:住宅本质上是生产力工具的存放仓库——房价与居住者的生产力成正比。
问题5 | 时间戳:00:45:19 - 00:45:48
问题内容:你预测2026年商业物种将从运营频道转向拥有 AI 工作室。从个体角度,能不能谈谈普通人的能力、机遇与挑战?
Indigo 分享了两个重要趋势:
问题6 | 时间戳:00:54:13 - 00:54:28
问题内容:你怎么看Meta的潜力?包括它的眼镜和公司自身?
Meta 在 AI 上"伤了元气"。公司把大量精力放在了 Metaverse 和 Reality Lab 上,而语言模型落后了。原因:(1) 没有像 Google、微软、Amazon 那样将云计算部署给第三方的经验;(2) 扎克伯格的技术选型 taste 像微软(不够好),总选错技术路线 —— 比如早年坚持用网页技术做移动 App 而失败。Meta 能赶上 Grok 就谢天谢地了。
问题7 | 时间戳:00:58:02 - 00:58:49
问题内容:你怎么看腾讯在游戏这块的未来?会不会被AI突然颠覆?
腾讯是全球最强大的游戏公司,控制了世界最好游戏引擎 Unreal 约 40% 股份,网络游戏和主机游戏收购都做得很好。Indigo 非常看好游戏产业的 AI 颠覆:
问题8 | 时间戳:01:02:36 - 01:03:52
问题内容:如何建立高信噪比的信息摄入系统?能给我们一些具体的框架吗?
嘉宾回答总结:
老喻补充"三屏法":一屏看顶级人物的内容,一屏用 AI 解释概念和补齐知识,中间一屏是自己的学习输出。
问题9 | 时间戳:01:09:03 - 01:09:41
问题内容:如何对抗大脑腐烂?AI 时代育儿的观念需要怎样改变?
嘉宾回答总结:
问题10 | 时间戳:01:16:58 - 01:17:02
老喻引用Indigo的观点,提到大模型从商业上消灭中间商,从职场上消灭中间层,询问如何面对这种"中空效应",即公司层面和职场上对于中间层的消灭。
嘉宾回答总结:
问题11 | 时间戳:01:24:01 - 01:24:27
对于被AI影响的中间层,可以培养哪些能力?可以主动做些什么?有哪些技能或元技能可以在周末或晚上自我强化?
嘉宾回答总结:
问题12 | 时间戳:01:27:00 - 01:27:30
现在流行的"一人公司",是一个故事还是在硅谷/北美已经有成功案例?能否分享一下?
嘉宾回答总结:
问题13 | 时间戳:01:31:45 - 01:32:00
作为一人公司,如何更好地运用 AI 和 Agent?对于 Vibe coding 可以做什么?
嘉宾回答总结:
问题14 | 时间戳:01:35:11 - 01:35:40
如何定义副业?副业有两种:一种是完全不同的领域,一种是和主业相关但用AI延伸(如教别人用 AI 做自媒体)
嘉宾回答总结:
问题15 | 时间戳:01:42:05 - 01:42:20
你个人有没有不那么乐观的时候?从深圳到北京到温哥华,哪段时间没那么乐观?
嘉宾回答总结:
问题16 | 时间戳:01:50:39 - 01:50:43
你的乐观是一种天性,还是一种主动的选择?
嘉宾回答总结:
问题17 | 时间戳:01:54:24 - 01:54:38
请分享你在之前演讲中提到的对 2026 年的十个预测。
嘉宾回答总结(部分预测):
在这个 AI 重塑一切的时代,我们应该如何理解世界,如何做出选择,如何活出意义?
答案或许因人而异,但有几点是确定的:
我们活在一个特殊的时代——人类文明曲线最陡峭的位置上。
这既是挑战,也是机遇。
关键在于,你选择站在哪一边。
2026-01-21 08:30:33

每一年的新年,都是一个回望与前瞻的节点。对于科技领域的观察者而言,2025 年是一个不得不被铭记的年份 —— AI 从"可以帮我们干点活"的工具,一跃成为"锯齿状智能"的存在:它在某些领域碾压人类,却在日常场景中时而表现得像个"弱智"。
这种奇特的不均衡,恰恰揭示了我们所处时代的本质:我们正站在一个由算力驱动的新文明入口。 一切问题,终将被重新定义为计算问题;一切解决方案,终将汇聚于算力的洪流之中。
视频时间戳

要理解当下,我们首先需要一个看待历史的框架。
法国年鉴学派历史学家费尔南·布罗代尔(Fernand Braudel)提出过一个精妙的历史观:历史如同海洋,分为三层——
第一层是表面的泡沫:日常事件、新闻头条、政策调整。这些是我们每天看到的东西,绝大多数都是噪音,转瞬即逝。
第二层是缓慢变化的洋流:制度、人口、经济结构。这些变化需要数十年甚至上百年才能完成,但一旦形成,就会持续塑造上层的一切。
第三层是深海的地质结构:地理、气候、资源分布。这是最慢也最根本的变量,它决定了人类文明的基本格局。

布罗代尔生活在二战前后,他的视野中,地缘是那个最深层的力量。但今天,我们必须在这个框架中加入一个新的变量 —— 科技,尤其是人工智能。
如果说过去人类文明的版图是由地理塑造的,那么未来的版图将由算力重新绘制。
AI 正在成为这个时代的深层驱动力。它不是表面的泡沫,不是某个公司的产品发布或某项政策的出台——它是正在改变一切的洋流。
这股洋流的力量有多大?我们可以从一个简单的传导链条来理解:

这条链条正在快速展开。美国 2024 年第四季度 GDP 增速突破 4% —— 几十年来首次——主要驱动力就是 AI 基础设施建设。所有的数据中心、所有的芯片订单、所有的电力投资,都在为这个新时代铺路。
如果用一张图来描述AI的发展阶段,我们现在正处于一个被称为"锯齿状智能"的时期。

这个概念来自 Andrej Karpathy 的精准描述:当前的AI像一把锯齿形的刀刃——在某些领域锋利无比(数学奥赛金牌水平),在另一些领域却钝得可笑(数不清"Strawberry"里有几个"r")。
2023 年:AI 还是玩具,新奇但不实用。
2024 年:AI 可以帮我们干点活了——回复邮件、简单问答、辅助写作。
2025 年:推理能力的突破让AI变得更好用,但它依然是半成熟的智能。
2026-2027 年:我们可能会迎来"难以置信的智能"——它只在少数因素上失败,绝大多数情况下都能成功。
2030年之后:或许,真正的 AGI 将开始显现。
但这里有一个关键的认知:AI 的进步速度远超人类社会的消化速度。 即便 Transformer 架构今天就停止进化,人类社会也需要十年以上的时间来完全适应和应用现有的能力。
正如 Karpathy 所说:我们还处于人工智能时代的"1960年代" —— 刚刚发明了半导体,无数的变化还在前方等待着我们。
2025年最重要的技术突破,是推理能力的普及。

从 OpenAI 的 o1 到 o3,再到 o4 和各家模型的跟进,"思考"不再是人类的专利。模型开始学会在给出答案之前进行推理——拆解问题、验证步骤、修正错误。
这听起来很简单,但它代表了 AI能力的质变:从"快速反应"到"深度思考",从"模式匹配"到"问题求解"。


来自 EPOCH 的数据显示了一个惊人的趋势:
你可以想象这意味着什么——指数级增长的智能,正在以人类难以感知的速度积累。
2025年1月,DeepSeek 横空出世,给全世界"踢了一脚"。
这一脚的力度有多大?英伟达股价单日跌掉 30%。整个硅谷开始重新审视:中国的AI 实力,是否被严重低估了?
DeepSeek 的意义不仅在于它的性能,更在于它代表的路径 —— 用更少的资源实现接近前沿的能力。它证明了:AI 的发展不一定需要无限的算力堆叠,聪明的架构设计和训练方法同样关键。
这是开源模型与闭源模型差距最小的时刻。在 2025 年初,两者几乎并驾齐驱。但随后,闭源模型(o4、GPT-5、Gemini 2.5、Claude 4)快速拉开了差距。这场竞赛还远未结束。
2025 年,还有一个不可忽视的变化:OpenAI 首次失去了绝对领先地位。
这并不意味着它掉到了第二名 —— 但它的领先优势被实质性地挑战了。
挑战者是谁?Google Gemini。

来自 SimilarWeb 的数据清晰地展示了这个趋势:
Google 的苏醒不是偶然的。当整个公司以 Gemini 为基座进行革新时,它积累了二十年的数据优势、基础设施优势和分发优势开始释放出来。

一个值得深思的预判:如果 AI 的未来是"模型即应用、模型即分发",那么拥有最强分发能力的公司将拥有最大的优势。 在这个标准下,Google 的潜力或许被市场低估了。
2025年还有两个改变行业格局的关键词:Vibe Coding 和 Claude Code。
Vibe Coding代表了一种新的编程范式 —— 你不再需要逐行编写代码,而是用自然语言描述你想要的结果,AI 来实现细节。这不是"辅助编程",而是"意图驱动的创造"。
Claude Code 则把这个范式推向了极致。Anthropic 前不久发布的 Cowork,本身就是由 Claude Code 在两周内完成的 —— 人类只负责提需求和验证,代码由 AI 自己编写。
这意味着什么?AI 已经可以自己实现自己的功能了。 虽然还需要人类的指导和把关,但自我进化的雏形已经显现。
硬币的另一面是:AI 能够创造大量内容,也意味着大量垃圾内容的泛滥。
"AI Slop"(AI 垃圾)成为 2025 年的一个新词汇。低质量的 AI 生成文章、视频、图片充斥网络,真正有价值的内容反而被淹没。
这带来了一个深刻的悖论:AI 让创作变得更容易,却让发现好内容变得更难。 在信息过载的时代,"策展"和"品味"的价值不是降低了,而是大幅提升了。

如果AI是这个时代的核心驱动力,那么数据中心就是它的心脏。2026年初的数据显示了一个或许出乎意料的排名:

Google 是隐藏的王者。 虽然媒体报道最多的是微软和 Elon Musk 的 xAI,但Google在数据中心领域默默保持着领先地位。
更重要的是,Google的数据中心具有独特的技术特征:多中心协同。Jeff Dean 分享过,未来的 Gemini 将把全球的数据中心连接成一个巨大的网络,不同的中心承担不同的功能——就像人脑的不同区域负责视觉、听觉、推理一样。

这种架构的潜力是惊人的:它意味着 Google 的 AI 可以利用分布在全球(甚至太空)的算力资源,形成一个真正的"计算网络"。
在芯片领域,一场静默的战争正在进行。
英伟达阵营:微软、OpenAI、xAI —— 他们依赖英伟达的 GPU,受制于供应链和产能限制。
自研芯片阵营:Google(TPU)、亚马逊(Trainium)——他们不依赖英伟达,只需要台积电的代工能力。

这场战争的意义深远。Anthropic 原本部署在亚马逊的芯片上,但 2026 年开始,它采购了 100 万颗 Google TPU 来自建数据中心。这是一个信号:芯片的多元化正在发生,英伟达的垄断地位面临真正的挑战。
值得注意的是,英伟达的优势不仅在于 GPU 设计,更在于它提供的是一整套"AI工厂"的蓝图——从芯片到软件到系统架构。正如黄仁勋所说,英伟达给客户的不是毛坯房,而是一套完整的解决方案。
但 Google 的 TPU 有它自己的优势:不受英伟达产能限制,可以根据自己的模型需求定制优化,而且随着规模扩大,成本效率可能超过通用 GPU。
所有主要玩家都在朝着一个目标冲刺:1吉瓦(GW)级别的数据中心。

目前,还没有一家完全达到这个里程碑。但 xAI 的 Colossus 已经非常接近——预计2026 年中将达到 1.4GW。Elon Musk 以他一贯的风格,在数据中心的 logo 上印了"Microhard"(微软的反义词),宣称未来 Microsoft 能做的一切,AI 都能做。
传统软件巨头的价值,正在被 AI 重新定义。

一个有趣的地理现象:AI 数据中心主要分布在美国中部和东部,西海岸反而很少。原因是AI数据中心不需要靠近用户(它主要做计算而非网络传输),它需要的是廉价的能源 —— 天然气、太阳能、核能。这是算力时代的新地缘政治。
要在 AI 时代做出正确的决策,我们需要一个新的思考框架。
这个框架的灵感来自英国物理学家、量子计算先驱 David Deutsch 的著作《无穷的开始》(The Beginning of Infinity)。他提出了一组颠覆性的观点:
问题不可避免,但问题可以解决。

这听起来像是鸡汤,但它背后有严肃的哲学基础:
这是 Elon Musk 信奉的"第一性原理"的哲学根基:只要物理定律允许,就一定有办法实现。
结合布罗代尔的历史观和 Deutsch 的知识观,我们可以构建一个理解世界的四层模型:

第零层:物理定律(永恒不变)
这是宇宙的终极底座——光速、热力学定律、量子力学的基本原理。除非我们发现新的物理理论,否则这一层不可逾越。
有趣的是,1900年物理学家们说"我们头上有两朵乌云",指的是经典物理无法解释的两个问题。后来,这两朵乌云分别催生了量子力学和相对论,彻底改变了人类对宇宙的理解。
我们现在已经六七十年没有发现新的基础物理理论了。下一次突破在哪里?或许,AI会帮我们找到答案。
第一层:知识层(数十年到数百年)
这一层包含我们对世界的"好的解释"——科学理论、数学定理、哲学范式。一旦发现,这些知识就成为人类永久的资产,除非被更好的解释所取代。
牛顿力学统治了两百年,直到被相对论取代。这就是知识层演化的速度——缓慢但深刻。
第二层:制度与结构层(数十年)
人口、能源、基础设施、政治制度、经济体系——这些是"中时段"的变量,变化周期大约是五六十年(与康波周期吻合)。

AI 正在深刻地重塑这一层。当算力成为基础设施,当数据成为战略资源,整个社会的制度和结构都将随之改变。
第三层:事件层(日、月、年)
这是我们每天接触的层面——新闻、产品发布、政策调整、市场波动。绝大多数都是噪音,但偶尔会触发"相变"——导致更深层次的变化。
我们要做的,就是在事件层的海量噪音中识别出真正的信号 —— 那些能够改变结构层甚至知识层的关键变量。
AI 的革命性在于:它加速了结构性变化的频率。

过去,一个结构性机会可能需要等待几十年才会出现。但在 AI 时代,这种机会可能每隔几年甚至更短的时间就会涌现。
更激进的可能性是:AI 可能帮助我们在知识层取得突破。如果AI能够发现新的物理定律或数学定理,那将是人类文明的一次质变——就像量子力学催生了整个信息时代一样。
这就是为什么 xAI 和 Gemini 都把"理解宇宙"定为终极目标。他们追求的不是更好的聊天机器人,而是能够独立进行科学发现的智能系统。
DeepMind 的创始人 Demis Hassabis 提出了一个大胆的哲学立场:宇宙中不存在不可计算的事物。
大脑是可以计算的,物理世界是可以计算的,一切本质上都可以用图灵机来模拟。这不是比喻,而是一个关于现实本质的陈述。
更激进的假设来自 MIT 物理学家 Max Tegmark:物理学的基本单位可能不是能量和物质,而是信息。 宇宙的底层可能就是数学结构——我们观察到的物质世界只是信息模式的涌现。
如果这些假设是正确的,那么构建足够强大的AI来理解和模拟宇宙就不是科幻,而是原则上可实现的目标。
这里涉及一个关键的数学概念:低维流形(Lower Dimensional Manifold)。
想象一下,一张纸被揉成了一个复杂的 3D 球体。原本简单的 2D 平面变成了看似杂乱无章的形状。但如果你知道折叠的规律,你就可以把它展开,恢复原本清晰的结构。

这就是 AI 在做的事情。
高维空间是一个充满噪音的混乱世界——想想所有可能的蛋白质结构,或者所有可能的物理过程。传统方法需要在这个巨大的空间中暴力搜索,效率极低。
但神经网络可以学习到这个空间中隐藏的"捷径"——低维流形。它发现,虽然可能性是无限的,但真正有意义的解其实集中在一个低维度的子空间里。
AlphaFold 就是一个绝佳的例子。蛋白质折叠是一个理论上需要天文数字时间才能解决的问题,但 AlphaFold 通过学习基因序列和蛋白质结构之间的映射关系,找到了一条"捷径",可以直接预测出折叠后的形状。
这与物理学的发展有着惊人的相似:牛顿的万有引力公式、爱因斯坦的相对论,本质上都是对自然界无限复杂性的"压缩" —— 用简洁的数学表达捕捉深层规律。
未来的科学可能不再是推导公式,而是用神经网络直接"学习"出自然规律的流形。公式是一种形式,神经网络是另一种形式——目的都是压缩信息,发现结构。
在 Demis Hassabis 看来,AI 最大的价值不是写代码或聊天,而是攻克那些能够产生巨大下游效益的"根节点问题":

一旦这些根节点问题被攻克,整个人类文明将进入新的阶段。Google 已经在用Gemini 为量子计算研究机构提供纠错服务 —— 这是 AI 与物理前沿结合的早期实践。
一个让很多创业者不愿面对的事实:AI 的 toC(面向消费者)市场窗口正在快速收窄。
SimilarWeb 的数据显示,2025 年全年,除了音视频生成之外,几乎所有 AI 垂直应用的流量都在下滑。用户正在向"什么都能做"的通用模型(ChatGPT、Gemini、Grok)集中。

这意味着什么?
模型公司正在吃掉应用层的空间。 当 ChatGPT 可以写作、编程、分析、画图、做视频,用户为什么还需要十几个专用工具?
对于t oC 创业者来说,出路只有两条:
Manus 被收购是一个信号。这家曾经独立的 Agent 公司,最终选择加入更大的团队。这不是失败,而是在正确的时机做出的理性选择。
toC 市场在萎缩,但 toB(面向企业)市场却在快速增长。
来自Menlo Park的数据显示了企业AI支出的分布:

代码是 AI 的第一个杀手级应用,没有之一。
这解释了为什么 Anthropic 选择专注于 Coding 和 Agentic 方向。它不是要做一个更好的 ChatGPT,而是要成为"新时代的 Microsoft Office + AWS" —— 企业工作流程的核心基础设施。
toC 和 toB 的本质区别在于:
这也是为什么 OpenAI 在 2026 年要收缩战线、专注企业市场 —— 它不得不应对来自 Anthropic 和 Google 的夹击。

一份最新的研究报告揭示了一个值得所有人关注的趋势:去技能化(De-skilling)。
当 AI 接管某些任务后,留给人类的工作所需的技能水平下降了。
举几个例子:
更令人深思的数据是:AI 的能力集中在需要 14 年以上教育程度的工作,尤其在 16-18 年教育程度(大学、研究生、博士)的任务上表现最为突出。

换句话说:AI 首先取代的不是蓝领,而是白领;不是简单劳动,而是复杂认知。
中层认知任务正在"中空化"——被 AI 完全接管。人类的价值正在向两端迁移:
一端是底层执行——需要在物理世界完成的动作(送货、打印、物理服务) 另一端是顶层判断——定义问题、验证结果、做出价值判断
中间的分析、研究、写作、计算?AI 来做。

这对每个人的职业规划都是一个严峻的挑战:你是否在向两端移动?
AI 要真正改变世界,必须走出数字空间,进入物理现实。

英伟达勾勒的蓝图包含三个关键步骤:

目前进展最快的是自动驾驶。Tesla 的 Robotaxi 已经在十几个城市获得许可,2026年预计将大规模普及。这是 AI 进入物理世界的第一个大规模应用。
机器人领域则更加复杂。
2026 年初 CES 展会上,人形机器人公司蜂拥而至 —— 其中绝大多数是中国公司。中国在机器人硬件供应链上的优势是碾压性的:传感器、电机、结构件、组装……整个产业链都在深圳周边。

但机器人的"大脑"——通用机器人控制模型——主要还在美国公司手中。Physical Intelligence(PI)、Skild AI、Google 的 VLA 模型……这些是让机器人能够泛化处理各种任务的核心技术。
一个有趣的格局正在形成:

Tesla 的 Optimus 是一个值得关注的变量。Elon Musk 的策略一贯是"先上场、后优化"——即使早期版本很粗糙,也要先进入真实环境收集数据,然后快速迭代。2026年,Optimus 预计将开始在 Tesla 工厂中正式工作。
但总体而言,人形机器人还处于"GPT-2 时代"——离"ChatGPT 时刻"还有几年的距离。泡沫化会加剧,但真正的突破也在酝酿中。
a16z(Andreessen Horowitz)最近发表了一篇深刻的文章:万物皆是计算机。
现代科技已经收敛到同一种形态:智能手机或电脑被无限次翻转、缩放,应用到每一个领域。电动汽车是一台大号计算机,无人机是会飞的计算机,智能手表是手腕上的计算机……
这解释了为什么深圳如此重要。任何与电子设备相关的产品,全球最好的供应链都在那里。

一张清晰的产业链图景:
顶层(品牌与设计):主要由美国公司主导——Apple、Tesla、Nvidia
中层(模块与子系统):中国绝对主导——从电池模组到传感器到电机控制
底层(原材料):分布在全球各地
中间层是关键。 谁掌握了把原材料变成复杂系统的"魔法",谁就掌握了进化的速度。这就是小米能够造车而福特不能做手机的原因——产业链的纵深决定了创新的速度。
这也是美国最担心的地方:未来的战争不是钢铁对钢铁,而是芯片、频谱和算法的较量。 而在这场较量中,硬件供应链的控制权至关重要。
AI 加速科学研究有两条主要路径:

路径一:模拟自然

用神经网络学习自然界的规律,从数据中提取"低维流形"。AlphaFold是 典型例子:它不是通过物理模拟来预测蛋白质结构,而是通过学习基因序列与结构之间的映射关系直接"猜"出答案。

这条路径的关键挑战是:如何生成足够多、足够好的训练数据?量子计算可能是一个答案——用量子系统生成经典计算难以模拟的数据,然后用神经网络学习这些数据中的模式。
路径二:模拟科研过程

让 AI 参与科研的全流程:文献综述、假设生成、实验设计、数据分析、结论提炼。人类从"做事"变成"指导"和"验证"。
这条路径的天花板更高,但挑战也更大——科研中最关键的往往是那些无法明确表述的"直觉"和"洞察"。
一个经常被忽视的事实:科学研究的最终瓶颈是物理世界中的实验。

AI 可以加速假设生成、加速数据分析,但它无法加速药物在人体中的代谢过程。临床试验需要五到十年,这是物理定律决定的,AI 改变不了。
这意味着:
但在某些领域——比如材料科学——AI + 高通量实验的组合可能带来革命性的加速。你可以用AI设计材料配方,然后用自动化实验平台快速测试,形成闭环。
2026 年最激动人心的预测之一是:AI 可能完成第一项真正有意义的独立科学发现。
这不是说 AI 写出了一篇论文,而是说 AI 从提出假设、设计实验、分析数据到得出结论,全流程独立完成,并且发现了人类此前不知道的规律。
如果这真的发生,将标志着科学研究范式的根本性转变——从"人类发现知识"到"人机协作发现知识"乃至"AI主导发现知识"。

基于对趋势的分析,以下是对 2026 年的一些预测:

持续学习将取得突破
模型将开始具备在真实环境中自我进化的能力。这不是完全的AGI,但它意味着模型可以在特定领域实现"部署-学习-改进"的闭环,而不需要重新训练。

Agent 商业化元年
AI智能体带来的广告支出将超过50亿美元。超过5%的零售电商将支持"Agentic Checkout"——AI自动完成购买决策和下单流程。
大模型竞争格局分化
游戏领域将出现爆款
一款AI实时生成的游戏将在视频平台引爆流量。xAI 的 Game Studio 预计将宣布新产品计划。
Robotaxi 规模化落地
Tesla 的无人出租车将在更多城市运营。Optimus 将开始在工厂中正式工作。
人形机器人泡沫化加剧
中国的人形机器人公司实在太多了。泡沫不可避免,但洗牌之后会留下真正有价值的玩家。
网络安全危机
一场由 AI 智能体驱动的网络攻击可能引发北约或联合国的首次紧急会议。AI的攻防博弈将进入新阶段。
AI 主权外交
大部分国家无法开发自己的主权AI。"AI 中立"将成为一种新的外交原则——类似于核武器中立。欧盟、加拿大等国家会寻求分散数字生态的风险,不把所有鸡蛋放在美国一个篮子里。
硅谷的"鸡汤大师" Naval Ravikant 说过一句深刻的话:
记忆的价值正在贬值。有了大语言模型,你还要记什么东西?一问就好了。但判断力和品味,更加重要了。
没有人会因为你记忆力好而表扬你。人们记住你,是因为你有品味、你会做选择、你能产出有价值的东西。
这意味着:学习技巧的边际收益在下降,而提升判断力的边际收益在上升。
网上到处都是教技巧的内容——今天学这个工具,明天学那个方法。但技巧本身不创造价值。价值来自于把技巧用在正确的事情上,交付实际的结果。
2024年,"Brain Rot"(脑腐)成为英国某机构评选的年度词汇。
短视频和碎片化信息会削弱人的注意力。那些被设计来"最大化用户参与度"的内容,本质上就是垃圾数据——它们让你停留,但不让你思考。
更可怕的是:研究发现,用这类碎片化内容训练的语言模型也会"变傻"——它们会放弃深度思考,倾向于给出肤浅的回答。
如果 AI 都会因为垃圾数据而"脑腐",人类的大脑更是如此。
你消费的信息质量决定了你认知的天花板。 精心管理你的信息摄入,就像控制饮食一样。
如何系统性地提升认知?这里有一个"认知飞轮"的框架:

第一步:控制信息质量

高信噪比的来源:
低质量的噪音:
第二步:抽象与内化

信息不等于知识。真正的学习发生在对信息的加工、抽象和连接过程中。
人类记忆不好不是Bug,而是Feature——它逼迫我们提取本质、建立框架。智慧不是记住了多少信息,而是能在不同层级之间建立快速连接的能力——直觉就是这些捷径的涌现。
第三步:输出即学习

把你学到的东西讲给别人听。如果你讲不清楚,说明你还没真正理解。
输出不一定要写长文或做视频。在社交网络上分享想法、在社群里讨论问题,都是输出。关键是:把思考外化,接受反馈,暴露盲区。
第四步:形成闭环
用认知指导行动,用行动检验认知。投资是最直接的检验方式——市场会毫不留情地告诉你,你的认知是否正确。
但也要记住:你只能赚到认知范围内的钱。 超出认知的钱,大概率会赔掉。
这是一个简单但经常被忽视的道理:
大脑不在乎你的意图,它只在乎你的重复。

你天天想着要学编程,但从来不写代码——大脑记住的是"不写代码"这个行为。你天天学习各种技巧,但从来不实际应用——大脑记住的是"只学不做"这个模式。
你最终成为什么样的人,不由你的想法决定,而由你反复做的事情决定。
所以,与其在"完美准备"中消耗时间,不如先开始做,在做的过程中学习和调整。
有一句话经常被引用:
悲观者永远正确,乐观者永远成功。
悲观者总能找到不行的理由——这个会失败、那个有风险、市场会崩盘……从统计学上看,他们经常是对的,因为大多数尝试确实会失败。
但正是那些相信"问题可以解决"的乐观者,在推动世界前进。
成为乐观者不是盲目乐观,而是在理解了风险和困难之后,依然相信未来是可以被创造的,并且愿意采取行动。


在 AI 时代,以下三种能力将变得至关重要:
分发级杠杆
你能触达多少人?你的内容、产品、服务能被多少人看到?在注意力稀缺的时代,分发能力就是财富放大器。
品位级战略
在AI可以生成海量内容的时代,品味成为最稀缺的资源。什么值得做、什么值得分享、什么值得投资——这些判断无法被自动化。
AI 级基础设施
你是否掌握了使用AI的技能?你是否把AI融入了自己的工作流程?这不是要成为AI专家,而是要让AI成为你的"外挂大脑"。
AI 并非无所不能。当前最大的瓶颈不是技术,而是社会:
组织结构是 AI 进入企业的最大障碍。

企业的中层管理结构天然抵制AI —— 因为 AI 最先取代的就是他们的工作。这需要自上而下的变革,需要 CEO 和 CAIO(首席AI官)联手推动组织重构。
界面控制价值分配。
谁控制用户界面,谁就控制价值流向。Google拼命做Agent、做深度搜索,就是为了延续它对界面的控制。苹果的Siri要引入Gemini,说明它在AI界面竞争中落后了。
真实性溢价。
在AI生成内容泛滥的时代,"真实的人"变成了稀缺资源。真人直播、真人社群、真人叙事——这些创造的是信任和连接,是AI难以复制的价值。
一个明确的趋势是:创作者经济将成为结构性机遇。

当 AI 降低了内容生产的门槛,真正稀缺的不再是制作能力,而是独特的视角、持续的输出、和受众的信任关系。
每个人都应该考虑:我能不能成为一个"分享者"?我能不能把我的专业知识、独特视角、思考过程分享出来,建立自己的受众群体?
这不是要每个人都当网红,而是说:在AI时代,"个人品牌"的价值会大幅提升。 你的名字、你的声音、你的判断,可能比你的具体技能更有价值。

回到文章开头布罗代尔的那个比喻:我们都是深层结构的囚徒。
地理塑造了人类文明的基本格局,技术革命塑造了几十年的经济周期,制度和文化塑造了社会的运作方式。作为个体,我们很难逃脱这些力量的支配。
但 AI 带来的变革,正在动摇这些结构。
算力成为新的基础设施。数据成为新的石油。代码成为新的语言。智能成为新的分配方式。
在这场变革中,我们既是被裹挟的对象,也是有能力施加影响的参与者。
关键是:你选择站在哪里?
你可以被动地等待变化发生,看着自己的技能贬值、工作被取代、认知被淘汰。
你也可以主动地拥抱变化——学习如何与AI协作,提升自己的判断力和品味,在新的结构中找到自己的位置。
正如 David Deutsch 所说:问题不可避免,但问题可以解决。未来是开放的,知识可以改变一切——只要我们愿意创造它。
这是乐观主义者的宣言,也是这个时代最重要的行动指南。
欢迎来到 2026。 欢迎来到万物皆计算的时代。 欢迎来到无穷的开始。

本文基于 Indigo 2026 新年直播内容整理创作,力求在完整还原原始分享的基础上,提供更清晰的逻辑结构和更深入的延展分析。