2025-01-27 07:30:17
1913 年,一场革命在底特律悄然展开。
当福特引入流水线生产后,T 型车的装配时间从 12 小时骤降至 1 小时 33 分钟,价格也从 850 美元降至 360 美元。这不仅仅是一次简单的降价促销,而是一场彻底的供给侧革命。这种效率的跃升,就像一把达摩克利斯之剑,悬在了 500 多家汽车制造商头顶。最终活下来的,只有那些及时跟进规模化生产的玩家:通用通过并购凯迪拉克、雪佛兰等品牌打造了全矩阵产品线,克莱斯勒则收购道奇完成扩张。到 1930 年代,“底特律三巨头”坐拥超过 80% 的市场份额,寡头格局就此确立。
一个世纪后的今天,AI 领域可能正在经历类似的转折点。
上周,一家名为 Deepseek 的中国创业公司发布了他们的最新模型 R1。这个消息原本不会引起太大关注,但一个细节让整个 AI 社区震动:只用了 2048 块显卡,就训练出了一个能与顶级模型相媲美的 Deepseek-V3 模型。更重要的是,他们选择了完全开源的路线,将代码、模型权重和训练日志全部公开。
几乎是同一时间,Trump 宣布了一项预算高达 5000 亿美元的 AGI 计划 Stargate Project。
多么巧合。
Deepseek 最引人注目的并不只是它的技术指标,而更多是它所面临的资源限制。在一个被 GPU 短缺和芯片禁运困扰的环境中,一家从未被计入中国“AI 六小龙”的量化基金公司,用最小的硬件配置和几十名年轻的博士生,完成了蛙跳式的技术突破。
业界展开了激烈讨论。
Yann LeCun 和 Jim Fan 等研究者把这样的突破归因于开放研究和开源生态:
Yann LeCun:那些把 DeepSeek 的成功解读为“”中国超越美国”的人完全理解错了。真正的故事是:开源模型正在超越专有模型。
Jim Fan:不管你喜欢与否,AI 的未来不会是被“安全委员会”控制的瓶中精灵。每个互联网用户都将能在他们的“烤面包机笔记本”上运行高阶模型。这是历史潮流,我们应该顺势而为,而不是逆流而上。
学术界和行业界的初步共识是:Deepseek 作为后来者,站在了巨人的肩膀上,开放的技术交流环境,包括论文、开源代码和各种正式或非正式的人才交流,为创新突破创造了条件。这种说法虽然对 Deepseek 自身的努力有些许低估,但放在生态整体上看,也没有什么错误。
而德国分析师 Holger Zschaepitz 的警告可能更值得关注:
DeepSeek 可能对美国股市构成最大威胁。当一家公司能在缺乏顶级芯片的情况下,以极低成本建立突破性的 AI 模型时,我们不得不重新思考:那些投入的数千亿美元资本支出,真的物有所值吗?
这个问题戳中了要害。
Deepseek R1 的训练成本没有被公开,但仅从 API 定价来看,R1 百万 tokens 输出价格为 16 元人民币,大概 2 美元多一点,而 OpenAI o1 则为 60 美元,前者仅为后者的 1/30。
关于 Deepseek 的成本分析,可以参考 Nathan Lambert 在 Interconnects 上发表的 DeepSeek V3 and the actual cost of training frontier AI models 一文。这篇文章对广为引用的“600 万美元”的 Deepseek-V3 训练成本提出了基于数据支撑的估算和质疑。Lambert 在文章中按照 H800 的单位成本和 V3 的预训练阶段的 GPU 小时数进行了估算,得到了 557.6 万美元的成本数据。
同时,Lambert 也指出,不能仅仅考虑训练一个模型的直接成本,而是应该考虑相关的间接成本,包含 GPU 购买或租赁成本、人员成本、能源费用等。林林总总加起来,Lambert 认为 Deepseek 的年运营成本应该不低于 5 亿美元。
对于任何一家中国的 AI 公司而言,这都不是一个小数字。但如果是和类似 OpenAI 这样的公司相比,这个数字确实可以和 API 价格的数量级差异相互对应。
1865 年,英国经济学家威廉·斯坦利·杰文斯发现了一个令人困惑的现象:瓦特改良的蒸汽机将煤炭使用效率提高了 3-4 倍,按理说应该减少煤炭消耗,但事实恰恰相反 —— 英国的煤炭总消耗在随后的几十年里暴增了近十倍。这个看似违反直觉的现象后来被称为“杰文斯悖论”:技术效率的提升往往导致资源使用的增加,而非减少。
为什么会这样?因为更高效的蒸汽机降低了使用成本,让更多工厂开始采用蒸汽动力。效率提升→成本下降→应用场景扩大→总需求激增,这个循环在之后的每次技术革命中都会重演。
蒸汽机是工业革命的开端,此后又出现了效率更高的内燃机,也开启了汽车工业的时代。
20 世纪初期,福特的流水线让汽车制造效率提升了数倍,Model T 的价格从 850 美元降到 360 美元。结果呢?不是节省了资源,而是带来了前所未有的石油消耗。
70 年代,又碰上了石油危机。以丰田为代表的日本汽车厂商带来了能耗效率更高、售价更低的车型,到 1980 年,日系厂商拿下了 21% 的市场份额,而在 1976 年,这个数字仅为 9%。日本车高速增长的代价是:从 1978 年到 1982 年,福特销量下降了 47%,克莱斯勒销量下降了 27%。
这不是一个零和博弈。尽管美国汽车销量在 80 年代后至今仅保持温和增长(从 1980 年到 2019 年,CAGR 仅有 1.37%),但每年汽车行驶里程却稳定增长(参考:美国能源部数据),从 1971 年的每年 1 万亿英里多一点,到现在基本稳定的超过 3 万亿英里。
成本和效率革命带来了车轮滚滚,但汽车行业却没能提供很好的资本回报。
巴菲特对汽车业的评价一针见血:“到了 90 年代,在经历了永不停歇的企业大屠杀之后,我们只剩下三家美国汽车公司 —— 它们本身对投资者来说并不是什么好事。这是一个对美国产生巨大影响的行业,同时也对投资者产生了巨大影响,尽管不是预期中的那种影响......”
看看福特汽车的股价走势:40 年来,其投资回报率仅为 3.3%,远低于标普 500 的 16%。
从杰文斯悖论,到福特的流水线,再到底特律成为锈带,为什么未能带来优秀的资本回报?
我分析下来,有几个原因:
第一,行业技术迭代周期快于资本支出的回报周期,造成前期的重资本投入还未取得充分回报,就已经过时,需要加速折旧摊销。
第二,汽车行业对能源的依赖性大,无论是 70 年代的原油危机,还是 80 年代日本的小型车,还是最近的电动车,都极大的挑战了行业在位者。
第三,企业创造价值存在很大的外部性,体现为两点:首先,后来者容易学习到领先者的工艺、流程、方法,并进行成本效率改进,带来更激烈的竞争。其次,汽车带来的经济价值存在很强的额外溢性,比如:麦当劳这样的连锁餐饮和沃尔玛这样的零售业态,都得益于汽车行业的发展,但这些价值无法被汽车行业自身捕获。
这些特点,看起来是历史,实际上在每一轮技术周期中都存在。
关于 Deepseek 的另一种猜测是它的发布时机:正好卡在 Trump 上任的这几天里,从华盛顿到华尔街再到旧金山,美国举国上下正处在喜迎“黄金时代”到来的欢愉中。
Stargate Project 是这种欢愉的集中体现。
这个由 OpenAI, Oracle, SoftBank, and MGX 联合发起的计划宣布将在未来四年投入 5000 亿美元,规模远超曼哈顿计划(23 亿美元)和阿波罗计划(250 亿美元)的历史投入。有趣的是,在沸沸扬扬的讨论中,几乎没有任何争议是关于这个 5000 亿的预算规模以及钱要花到何处去的,而更多质疑指向了 Sam Altman 和孙正义到底有没有这么多钱投进去。
的确,考虑到 M7 在过去两年中动辄数百亿美元的资本支出,这个“举国项目”放个 5000 亿的预算,并不算太夸张。更何况,Stargate Project 被比作 1980 年代美国的“星球大战计划”,通过夸大技术愿景来施加战略压力。(说到这个,Apple TV+ 最近有部有趣的电影《Fly Me to the Moon》,讲述了 NASA 如何为登月计划做营销,颇具讽刺意味。)
这个计划公布之后,美股一片大涨,从半导体到电力配套。金融数据平台 Quartr 还发布了一张与之相关联的产业上下游的图,方便投资者按图索骥。
Nvidia 是一支在过去两年里几乎怎么买都不会错的股票,但自从 2024 年 9 月以来,Nvidia 股价开始徘徊不前,振幅逐渐扩大,每一次分歧,都有更多人的站队,一旦力量的平衡被打破,就可能成为崩溃的开端。华尔街见闻的一篇 短文 捕捉到了这个信号:在主流报道和社交媒体的多重发酵后,市场开始意识到 Deepseek 搅动的可能不仅仅是 AI 研究的方向,也可能会成为戳破泡沫的前奏。
判断一个行业是否存在泡沫,最终要回到一个简单的问题:用户愿意为最终经济价值支付多少钱?
这个问题在 AI 行业特别关键。Nvidia 一张显卡卖一万美金,评价这个价格是否合理,不是看 Microsoft 和 Meta 愿意为它付多少钱,而在于这些算力在最终客户手里能创造多少经济价值。
在评估这个经济价值时,我们常常被模型能力的上限所吸引——解决数学奥赛题目、挑战 AGI 的极限。但在实际应用中,基础场景的表现可能更重要:就像 GPT-4 在内容生成和客服等领域展现出的价值,虽然偶尔会犯错,但平均表现和下限在稳步提升。用风险投资人 Nat Friedman 的话说,我们在过去两年看到的是:可靠性这个“下限”在逐渐提高,而成本则呈现数量级式的下跌。
Deepseek 的出现揭示了 AI 行业的另一个关键特性:模型研发具有很强的外部性。特别是在蒸馏与合成数据等技术存在的情况下,后来者的追赶和学习效应异常强劲。这种内卷加外卷的结果,就是模型能力变好,而成本快速下降的原因,在这个过程中,行业利润被快速挤出,没有人能从自己创造的经济价值中分到一勺羹。
AGI 是支撑千亿美元投入的信仰。这个信仰也支撑着市场期待从成百上千亿美元得到长期回报,并支持对模型能力“上限”的追逐。但 o3 的单次推理成本还在几千美元的水平上,无法大规模使用,也就很难兑现成本——这里并不需要如很多行业评论分析的,需要区分预训练还是推理成本,关键在于去哪里寻找经济价值达到几千美元的任务。
这种以技术驱动的叙事很考验市场耐心,等久了,人总会不耐烦的。
更容易理解的故事,就是成本下降。推理成本每年都会下降一个数量级,Deepseek 可能只是让这个下降来临得更早了一些。
当模型以更低成本通过提高“下限”来解决实际问题时,算力需求的分布可能会发生根本性改变。有研究估算,在 AGI 时代需要 3300 万个 H100 GPU 同时运行(见推荐阅读 Links + Notes 中的 What would a world with AGI look like? 一文的估算,而目前 Nvidia 年产量仅为 150-200 万个。这个天文数字般的差距,既可以理解为巨大的供给短缺,也可能暗示我们忽视了某些能带来数量级改变的因素。
我丝毫不怀疑 AI 将创造巨大的经济价值,但这些价值将可能以全然不同的结构分布。
如果通往 AGI 的道路比预期更漫长,如果市场对技术进展失去耐心,我们可能会看到第一波泡沫的破裂。但我绝非唱衰者:周期总是三步向前,两步向后,短期来看,高资本支出和高估值令人担忧,而长期来看,进步总是曲折向前:技术终会扩散,未来终是分布不均。
当一个行业进入效率驱动的扩张期,竞争加剧和价格战往往会侵蚀掉效率提升带来的收益。资本支出自身并不能构成护城河,技术也难以在长期中形成垄断。这是最简单的道理,也是人类会反复犯的错误。当效率革命粉碎了技术垄断的幻想,当创新使得昨日的巨额投资在今天贬值,我们或许会重新理解巴菲特在谈到汽车业时的那句警示:有时候,一个行业对世界的影响越大,对投资者的伤害可能就越深。
我最近在读一本美股的历史的书 Bull!: A History of Boom and Bust, 1982-2004,书名中的叹号不是笔误,而是作者出色的情绪传递。80 年代是全球化真正的开端,美国本土的制造业就是在这个时候逐渐让位给科技业和金融业的。Alan Greenspan、Bill Clinton、Mary Meeker 这些名字逐一登场,连续 20 次降息、电信法案、长达 300 页的互联网行业报告,如梦如幻的时代就此展开。
牛市并非一蹴而就,而是经历多个阶段累积势能,泡沫和崩盘交替发生,落到个体身上,很难用一出戏、一场梦来比喻?
无论是标普 500 还是 NASDAQ 100,都一再刷新历史新高,流动性仍然旺盛,资本市场的吹哨人不断放出警告,而无人应答。当 Stargate 和 R1 同时出现的时候,这怎么会是巧合?
这是历史在托梦。
你可能已经发现,1 月份的几篇更新中,我在开篇的文字中投入的精力更多了。这部分是因为我希望在 2025 年在写作上多花一点时间,写出更多的好的“作品”,另外也因为 1 月份的确有很多值得写的话题。
而每周更新中的传统项目:Links + Notes,也就是阅读推荐,也是过去几年读者最喜欢的内容。大部分时间里,我会从我每周的阅读中遴选 5 篇文章,加上引用和我的解读,作为每周更新的主要部分。开篇文章更多是一个导读,或是一些随记。
现在看来,这个重心发生了不小的迁移。
这是春节前最后一篇更新。我选了 5 篇文章,篇幅上第一篇很长,第 2-3 篇中等,第 4-5 篇比较短。前 3 篇都是围绕 AI 的,信息量足够多,但估计大部分人可能没有心情在假期前阅读枯燥的长文,这里做个预览,请通过邮件订阅的方式获取这些内容(预计还有几千字):
春节期间,我可能还会做一次发布,预计在假期结束的时候。
预祝大家春节愉快!
2024-12-23 12:25:36
“当我看到这些分数的时候,我意识到我需要改变我的世界观了。”
在 OpenAI 的发布会现场,ARC Prize Foundation 的负责人 Greg Kamradt 有些不安。作为全球最严苛的 AI 测试基准之一,ARC-AGI 每年都会举办奖金不菲的竞赛。无数模型在这个测试面前折戟沉沙,以至于业内开玩笑说这个基准“感觉已经存在了几个世纪”。
但就在 2024 年的最后几天,情况发生了变化。
OpenAI 的最新模型 o3 不仅打破了记录,更令人震惊的是:在高算力测试中,它达到了 88% 的得分,超越了人类平均水平的 85%。
“我需要重新校准我对 AI 能力的认知,特别是在这个被 o3 开启的新世界里。”Greg 继续说道。
在 OpenAI 连续 12 天的发布马拉松中,o3 是最后一棒。这个时间节点的选择颇具戏剧性:此前的几天里,OpenAI 和 Google 仿佛陷入了一场隐形的竞速:Sora 对阵 Veo 2,GPT-4 对阵 Gemini Flash 2.0 Experimental,o1 对阵 Gemini Flash 2.0 Thinking Mode。当 800-CHATGPT 这样的功能发布出现时,不少观察者认为这是一招缓兵之计,为最后的王牌 o3 争取时间。
发布前夕的情况也颇为微妙。关键人物的离职消息传出,让业内开始担心:o3 会不会重蹈 Sora 的覆辙,只是一个仓促的“占坑”发布?
但 o3 的发布过程打破了这些猜测。虽然 Sam Altman 在开场时将 "launch" 改口为 "announce",但随后的展示却令人印象深刻。OpenAI 的研究主管 Mark Chen 没有用华丽的演示,而是直接展示了 o3 在编码和数学能力上相对于 o1 的巨大飞跃。
最引人注目的是 ARC-AGI 测试的结果。这个基准测试的重要性,通过 Greg Kamradt 的介绍得到了充分展现:
它在人工智能领域已经 5 年无人能敌,感觉就像几个世纪以来一直如此。击败 ARC-AGI 的系统将成为迈向通用智能的重要里程碑。
而 o3 正是这个里程碑的缔造者:在 high compute 和 low compute 两种场景下,o3 分别达到了 88% 和 76% 的惊人成绩。更具历史意义的是,它在高算力场景中超越了人类水平线(85%)。
在整个发布过程中,有一个有趣的细节:Sam Altman 和 Greg 不断拿研究主管 Mark Chen 作为参照物。作为美国信息学奥赛(IOI)的国家队教练,Mark Chen 的数学和编程能力远超常人。这种看似调侃的比较背后,实际上暗示了一个更深层的信息:AI 已经可以在某些特定领域与最优秀的人类专家较量。
ARC Prize Foundation 的 官方文章 这样写道:
OpenAI 的新 o3 模型代表了 AI 适应新任务的能力的重大飞跃。这不仅仅是渐进式的改进,而是一个真正的突破,标志着 AI 能力与 LLM 先前的局限性相比发生了质的转变。o3 是一个能够适应从未遇到过的任务的系统,可以说在 ARC-AGI 领域接近人类水平的表现。
这不仅仅是一场普通的产品发布会,而是一个重要的信号:AI 正在从模仿人类迈向真正的智能。要理解这一跨越的意义,我们需要深入探讨智能的本质。
于是,我去读了一下为 ARC-AGI 奠基的论文:On the Measure of Intelligence。
2024-11-15 16:00:00
2009 年,一座冰岛火山的喷发让东半球航班停摆,我因此误打误撞进入了移动互联网的浪潮。十五年间,我在这场信息网络构建的游戏里换过不同的座位,见证了规模至上的时代,也目睹了它承诺的多样性是如何被吞噬的。
信息传播的成本近乎于零,这让构建一个规模庞大的信息网络变得有利可图。这个时代的从业者,包括我自己在内,把整个青春都花费在寻找让网络规模持续变大这件事上。这是一场资本、智力和体力的多重竞赛,残酷之处在于它根本没有太多获胜者的名额,第二名与惨败别无二致。
对这场竞赛的个人反思,不在于它有多惨烈,而在于它并没有带来一开始所许诺的多样性。过去十几二十年,我们这一代人中比较理想主义的那些,多多少少是受到了蛊惑,前仆后继的跳入这条湍急的河流里,并不知道它将把所有人带到什么地方。
每一个信誓旦旦的定律背后,都还有更大的公理,但我们都太容易在繁花般绽放的现象面前丧失冷静判断,忘记一切运转的根源在于宇宙间看不见的巨手的拨弄。当一切微小在长尾中翻腾涌现的时候,就总有少数最终会长成谁也不认识的庞然巨物。对于生存的底层渴望,让“大”成为最终的宿命,“小”甚至无法归类,无处安放。
“小”并不是“小而美”,“美”只是众多意义的一种。小,多样,意义丰富,才是对互联网难以割舍的乡愁。
一年前,我翻到 David Brooks 的《第二座山》。这位纽约时报专栏作家的著作我向来在读,但这本书来得太恰逢其时,仿佛是算法的精心安排。以山为喻,是写人生转折时的常见手法,而 Brooks 比李宗盛看得更远:他不只看到了一座山丘,还看到了第二座。在他的笔下,第一座山是世俗意义上的成功,但这既不是终点,也不是重新开始。在第二座山上,人需要重新审视自己的理想主义,挑战时代赋予的主流价值。
正读到书的一半,一位朋友来找我聊职业选择。在餐桌上,我不经意地谈起内心对时代和个人前路的不安。在他眼中,我分明正在第一座山上奋力攀登,这种忧虑来得莫名其妙。今天回想起来,那次晚餐像是一场预言。
Brooks 在书中讲述了许多故事:疾病、事故、婚变甚至战乱,作家本人也经历了亲密关系的破裂。正是这些突如其来的转折,让人切身感受到翻越山丘后的失望、迷惘与孤独,也让人得以望见第二座山的轮廓。
“孤独”这个词,我在青春期就格外钟爱,彼时只是迷恋它的意象与韵律,未曾想到多年后它会从日记深处重返,带着新的含义。孤独症(autism)是一种特殊的人格特质,在人群中占据约 1% 的比例——每个班级中都有这样一个学生。Elon Musk 坦言自己属于这个群体,而剑桥大学的 Simon Baron-Cohen 爵士更进一步,他设计了一份量表,认为每个人都或多或少具有这种特质。这不是缺陷或障碍,而是人类认知光谱上的一种多样性。
《雨人》等艺术作品将这种特质浪漫化,让更多人得以理解并产生共鸣。通过这面镜子,我开始理解自己的种种特质:那些痴迷的追求,习以为常的忽略,难以理解的困惑,原来都是这 1% 群体共同的体验。
离开工作后,我开始了一段长假:或在异国漫游,或在家中独处。充裕的时间让自我探索得以深入,日常的细节在慢镜头下清晰可辨。这些零星的片段,就像光谱上的离散点,渐渐连成了一条令人惊讶的轨迹。
我意识到,人类的心灵并不真正相通,一个孩童需要后天努力才能习得语言和社交的能力。即便如此,世界上仍有许多的 1% 群体并不与其他人用相同的频谱沟通。网络创造了连接,而连接并不解决沟通中的摩擦、误会和障碍。相反,正因为网络效应创造的巨大规模,连接、互动和交易都变得更加频繁,每个人都被匆忙的推搡到大街上,赤身裸体,惊慌失措,只有那些最大声的占到了便宜。
小说《巴别塔》像是一部寓意更加深刻的《哈利波特》,其中最重要的魔法被称为“刻银术”,通过将不同语言中的对应词汇刻在银条上,捕捉语言深层的、隐含的意义,进而发生巨大的作用。“刻银术”由具备精湛手艺、深谙多种语言妙处的“嚼舌者”刻制在银条上,等待被咒语激活。
比如一块银条上刻有汉字“爆”和英文 burst:
爆,部首是‘火’。右半部分则代表暴力、残忍和动乱。‘暴’字本身也有野性未驯、原始野蛮的意思。雷暴和残暴等词语里都有暴字。而他用英语 burst(爆发)来翻译‘爆’,这是最温和的译法,温和到根本无法翻译出‘爆’的内涵。因此,这个字所有的毁灭之力都被困在了银条里。
这块银条在小说中杀死了一个角色。它告诉我们,翻译中所流失的细微含义会带来危机;而多样性则会互相补充,产生惊人的力量。
AI 正是我们这个时代的“刻银术”:它通晓人类文明所积累的大量语言资料,在极大的跨度上建立关联或分辨细节。只要我们施以合适的咒语(prompt),就能激活伟大的力量。更重要的是,AI 让小众需求的满足变得经济可行——它可以为每个 1% 的群体量身定制专属服务,这在过去的规模经济时代是难以想象的。
就像小说中的嚼舌者通过刻银术捕捉不同语言间的微妙差异,AI 也在以前所未有的方式连接和转译人类的多样性:
这些应用展示了 AI 作为现代“刻银术”的多面性:它不仅是工具,更是一种理解和转化的媒介,让每个小众群体都能找到自己的表达方式和生存空间。正如《巴别塔》中的银条能够捕捉词语间的微妙差异,AI 也在帮助我们发现和连接人类认知的无限可能。
《巴别塔》中,作家借普莱费尔教授的话说:
在无尽的时光里,翻译始终在推动和平。翻译让沟通成为可能,而沟通又让各国之间的外交、贸易与合作成为可能,从而让所有人都得到财富与繁荣。
如果过去的一个时代,我们的主要工作是在解决连接问题,那么下一个时代,工作的重点就是“翻译”:它不是字面上的意思,而是在连接之上重新阐释,释放由多样的 1% 带来的力量。
这一年对我而言,既是向外探索,也是向内寻求,但最终是向内更多一些。世界真的很大,充满了种种可能性,仅仅是了解这些可能性,就已经让人应接不暇。但一切发生在别人身上的可能性,都没法照搬你自己身上。不管有多少奇遇,但在讲故事的时候,总要有一些线索暗中串联,才能听上去足够合理。
历史既是包袱,也是地图。每个人都是他过去经历的总和。无论过去如何背叛,你都没法轻而易举的把它抹除。相反,你还得从中找到继续向前的路线,不管它看上去平淡、凶险还是未知。
时代匆匆向前,并不容许太多思乡怀旧。那些对宏大规模的追求,让我感到越来越陌生,或许对于赚钱来讲,它仍然是最好的故事,但如果把它作为第二座山的目标,令人生疑。
人类的伟大之处,不在于我们能建造多么宏大的工程,而在于我们能容纳多少种不同的存在方式。每一个 1% 的群体,都是人类认知光谱中独特的一抹色彩,都在用自己的方式解读和回应这个世界。
探索频道的创始人 John Hendricks 在其自传中提出过服务“25% 人群”的概念,他不知道从哪里听说,这个世界上有 25% 的人热衷于科学知识,于是将其定为探索频道要服务的人群。在大众传媒年代,这已经是技术所能承诺的极限愿景。
而 AI 带来的可能性在于:当机器能够理解和转译人类心灵的细微差别,那些曾经被主流叙事忽视的声音,那些在喧嚣中难以被听见的低语,都能找到自己的回声。就像《巴别塔》中的刻银术师们,执着地寻找字词间的微妙关联,我们也在寻找连接彼此心灵的桥梁。
在这条路上,也许我们终将明白:真正的繁荣不在于所有人都变得相同,而在于我们能让每一种不同都绽放出自己的光。这是一个更温和的愿景,不再追逐规模的巅峰,而是在静默处聆听每一个独特的生命体验。
2024-10-24 08:30:23
2024 年 10 月,一个看似普通的交易日变得不同寻常,因为 Hindenburg Research 发布了一份关于全球最大游戏平台之一 Roblox 的严厉报告。该报告称,Roblox 每日活跃用户中多达 42% 可能是机器人。然而几天之内,该股已基本恢复。这种韧性告诉我们一些关于 Roblox 的重要信息——并揭示了人工智能和虚拟现实时代平台转型挑战的更深层次的故事。
Roblox 创办于 2004 年,是一家有着 20 年历史的公司。它从 PC 时代起家,经历了移动互联网、Covid-19、Metaverse / NFT 热潮,现在,它是世界上日活跃用户最多的游戏平台之一(MAU 和时长超过 PlayStation),但创始人坚持认为它是一个连接人类的社交体验。
出版过《The Metaverse: Building the Spatial Internet》的投资人和分析师 Matthew Ball 在 2024 年 8 月以《Roblox 已经是世界上最大的游戏。为什么它不能盈利(以及如何盈利)?》为题,撰写了一篇长篇分析文章——这不是他第一次分析 Roblox——文中对 Roblox 出色的数据表现进行了全方位的展现,也乐观的为它长期以来的亏损进行了解释。
在我看来,这是一篇极佳的入门读物:如果你想要在十五分钟内对这家公司有所了解,Ball 的这篇文章足够了。但它也有缺点:分析仅限于亮眼的数字,缺少对背后原因的解析。Roblox 是少数在 Covid-19 之后仍然保持强劲增长的在线内容娱乐类产品,在 MAU、DAU、时长、用户年龄和地区结构分布、收入能力上都很正向。
2024 年 10 月份的一个平平无奇的交易日,Hindenburg Research 发布了一份 做空报告,直指 Roblox 用户数据注水:通过对公司游戏服务器的持续监测,收集了 2.98 亿行实时玩家数据,数据表明,Roblox 平台上存在大量机器人账号,这些账号不是真实的玩家,而是为了赚取游戏内货币以再次出售的挂机账号。调查结果表明,Roblox 夸大了 DAU 指标 25%-42% 或更多,另一项关键指标——参与时间——被夸大了 100% 以上。
报告一出,Roblox 股价当日暴跌。
这家公司让我感兴趣的另一个原因,是因为它和最近风头正劲的 AR / VR 生态有所结合。Mark Zuckerberg 把 AR / VR 视为下一个计算平台,Roblox 作为世界上最大的虚拟社交娱乐体验一定会在这个平台的发展中扮演重要角色。无论是 Quest、Orion 还是 Apple 的 Vision Pro,都需要内容生态来拓展使用场景,而 Roblox 正好拥有这样的生态。
带着好奇和疑问,我开始探究 Roblox 这家公司的故事。
Roblox 的创始人有两位,分别是:David Baszucki 和 Erik Cassel,后者因罹患癌症,在 2013 年英年早逝。
David Baszucki 出生于 1963 年,是乌克兰移民的后裔。他 1983 年毕业于 Stanford 的电气工程专业。深受 80 年代个人电脑早期文化的影响,和弟弟共同创办了一家名为 Knowledge Revolution 的公司,Erik Cassel 是这家公司的工程副总裁。他们一起开发了一个用 2D 技术模拟物理实验的教育软件 Interactive Physics,后来又拓展到机械设计领域(Working Model)。这家公司在 1998 年以 2000 万美金卖给了另一家模拟软件公司。Baszucki 在这家公司工作到 2002 年。
在和 Microsoft CTO Kevin Scott 的一次访谈中,他回忆说教育软件是一项很困难的生意,他曾经和父亲的一位深谙商业之道的朋友交谈,对方告诉他教育软件的市场规模很小,Baszucki 开始并不同意,但最后发现对方说的是对的。他反思道:
... the notion was always come back to the consumers and there is a notion that the best educational tools sometimes aren't educational tools, they're really good word processor, they're really good movie editor, they're really good web browser. Those types of things can go super high quality, super high volume and be educational tools tens of millions of people use.
... 这个想法总是回到消费者身上,人们认为最好的教育工具有时并不是教育工具,而是非常好的文字处理器、非常好的电影编辑器、非常好的网络浏览器。这些东西可以达到超高品质、超高容量,成为数千万人使用的教育工具。
Baszucki 意识到,用户愿意用是产品发挥作用的前提,教育产品的形态限制了用户规模。他进一步讲道:
The learning from Interactive Physics was let's think about going more consumer, let's go 3D instead of 2D, let's go multiplayer, let's go cloud based, let's go avatar based. So rather than a 2D experiment you are watching by yourself, you are inside of a 3D experiment with your friends around the world on multiple devices. So the Interactive Physics thought was still there. But the hope was if there's thousands of engineers working on super high quality, free consumer software, the byproduct of that may be an educational product that's even better than Interactive Physics.
从 Interactive Physics 中学到的是,我们要考虑面向更多的消费者,我们要采用 3D 而不是 2D,我们要采用多人游戏,我们要采用基于云的,我们要采用基于虚拟形象的。因此,您不再是自己观看 2D 实验,而是与世界各地的朋友在多个设备上一起参与 3D 实验。因此,互动物理学的思想仍然存在。但希望是,如果有成千上万的工程师致力于开发超高质量的免费消费者软件,那么其副产品可能是一种比 Interactive Physics 更好的教育产品。
在短暂的做了两年天使投资人,期间投资了社交网络先驱 Friendster 之后,2004 年,Baszucki 和 Cassel 再次创业,吸取了在 Knowledge Revolution 上的经验,要打造一个多人在线的 3D 体验。