MoreRSS

site iconTMT | 钛媒体修改

成立于2012年,致力于打造全球领先的财经科技信息服务平台。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

TMT | 钛媒体的 RSS 预览

Exclusive: Hinton Says He Feels “Some Regret” but Not Guilt in Conversation With Jany Zhao

2025-12-08 22:45:04

Geoffrey Hinton, the winner of the Nobel Prize in physics often referred to as the “Godfather of AI,” said Monday that he feels a form of regret as artificial intelligence advances faster than expected, but does not feel guilty about his role in pushing the technology forward.

Hinton shared his reflections in a conversation with Jany Hejuan Zhao, the founder and CEO of NextFin.AI and the publisher of Barron's China, during the 2025 T-EDGE conference, which kicked off on Monday, December 8, and runs through December 21. The annual event brings togehter top scientists, entrepreneurs and investors to discuss pressing issues of the AI era.

His comments came in response to Zhao’s question about whether he felt responsible for pushing humanity “into such a dangerous situation.” 
Hinton told Jany Hejuan Zhao that he does feel a form of regret but not guilt.

Hinton told Jany Hejuan Zhao that he feels a form of regret but not guilt.

Hinton, also a recipient of the Turing Award and a professor of computer science in the University of Toronto, emphasized that he distinguishes between guilt and hindsight-based regret. “There's two kinds of regret. One is guilty regret—when you did something and, at the time you did it, you knew it was wrong. I don't have that kind of regret,” he said.

He explained that his early work on AI was driven by optimism. “At the time I was helping develop AI, I thought it would be mainly good. It would do amazing things like increasing productivity, and be wonderful in health care, education, and all sorts of things. I wasn't very aware of the risks, and so I don't feel guilty.”

If placed back in the same circumstances, he said, he would not have acted differently. “If I lived it again with the same knowledge I had then, I would do the same thing again.”

However, he acknowledged that the field’s rapid acceleration has created a new source of concern. “Now it's very unfortunate that it turns out that it's coming faster than we expected, and we may not have enough time to figure out how we can coexist with it. So in that sense, I regret a bit that,” he said.

Still, he rejected the idea that any single researcher should be viewed as responsible for AI’s trajectory. “Remember, there were a large number of people working together who developed AI. The media loves to have a story where one person did something—they attribute it all to one person. That’s kind of always nonsense. At least in science, it’s nearly always nonsense.”

He added that his own contribution was only incremental. “There are a few people like Newton and Einstein. If they hadn't been around, things would have been delayed a lot. If I hadn't been around, things might have been delayed a week or two… so I don't feel that guilty, because if I hadn't chosen to work on it many years ago, I don't think it would have made much difference.”

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

薪酬挂钩业绩!监管组合拳破解“基金盈利基民不赚钱”困局

2025-12-08 20:57:35

近日,《基金管理公司绩效考核管理指引(征求意见稿)》正式下发,标志着公募基金行业迎来一场触及核心利益的薪酬体系重构。最引人注目的条款是:若基金经理过去三年产品业绩低于基准10个百分点以上且基金利润率为负,绩效薪酬同比降幅不少于30%。

Wind数据显示,截至12月5日,在近三年有完整业绩数据的3757只主动权益基金中,1444只产品跑输同期业绩基准超10个百分点,占比接近四成,涉及基金经理数量达996位。

这些曾凭借规模优势领取高薪的从业者,第一次面临如此直接的降薪压力。可以预见的是,一场巨大的行业变革正全面启幕。

薪酬改革,从“旱涝保收”到“奖惩分明”

长期以来,公募基金“旱涝保收”的管理费模式备受市场诟病。即便旗下产品净值大幅回撤、投资者损失惨重,部分基金经理仍能凭借规模优势领取高薪。这种失衡的激励机制不仅损害了投资者利益,也不利于行业的长期健康发展。

此次监管新规直指行业考核弊病,以刚性条款重塑基金经理薪酬分配规则。新规最核心的突破在于构建了阶梯化绩效薪酬调整机制,彻底摒弃过往模糊的考核标准。

根据《指引》要求,主动权益类基金经理的薪酬考核将聚焦过去三年业绩表现,以业绩比较基准对比结果和基金利润率为核心指标划分不同梯度。其中,最受关注的刚性条款明确:若基金经理管理产品三年跑输业绩基准超10个百分点且基金利润率为负,绩效薪酬降幅不得低于30%;反之,若业绩显著超越基准且实现盈利,则可获得合理加薪。

与2022年版规则相比,此次改革实现了从鼓励到强制、从模糊到精准的全面升级。在考核核心锚点上,从“绩效考核指标应当包括经济效益指标”变为明确“以基金投资收益为核心”。

在长周期考核方面,从“原则性要求”变成了“刚性约束”,强制规定定量考核指标中三年以上中长期基金投资收益权重不得低于80%。薪酬调整机制也从无到有,明确提出了阶梯化降薪刚性约束,从根本上改变了行业旱涝保收的现象。

苏商银行特约研究员武泽伟认为:“业绩不佳刚性降薪的条款,是对‘旱涝保收’收费模式的直接挑战,它为基金经理的薪酬引入了显著的下行风险,使持续跑输基准成为不可承受的成本。” 

利益绑定:强制跟投与递延支付深度捆绑

此次改革的另一大亮点是通过强制跟投与薪酬递延支付制度,将基金管理人与投资者的利益深度绑定。

新规要求基金经理将不少于40%的当年绩效薪酬购买本人管理的基金,且绩效薪酬递延支付期限不少于三年。这一比例较2022年规则提升了10个百分点。

对于高管及主要业务部门负责人,需将当年全部绩效薪酬的30%以上购买本公司公募基金,其中权益类基金占比不低于60%,较此前要求全面提高。

跟投制度的另一重要变化是明确持有期限不得少于1年,避免了短期套利行为。值得关注的是,对于基金经理持基的说法,由此前的鼓励自购修订为强制性自购,与持有人的利益绑定更加深入。

递延支付方面,董事长、高级管理人员、主要业务部门负责人、分支机构负责人和核心业务人员的绩效薪酬递延支付比例原则上不少于40%,递延支付期限不少于3年。这一要求确保核心人员的薪酬回报与基金长期业绩挂钩,避免短期业绩兑现后离职的“短视行为”。

改革还建立了包括薪酬止付、追索与扣回在内的薪酬问责机制,且该机制同样适用于离职人员。这意味着即便核心人员离职,若后续发现其在职期间存在违规行为或导致基金业绩大幅亏损,仍可追溯其薪酬责任。

在一位行业观察人士看来,这套组合拳实质上构建了一个“命运共同体”:“当基金经理和高管必须用自己相当一部分收入购买自己管理的产品,并且这些收入还要在数年后才能完全兑现时,他们的个人利益就与基金持有人的利益实现了真正的对齐。这不仅是制度约束,更是行为逻辑的根本转变。”

差异化考核:从“一刀切”到精准匹配岗位职责

此次改革针对不同投资类型、不同岗位的特点,设计了差异化考核标准,体现了专业性与针对性。

对于主动权益类基金经理,产品业绩指标权重不低于80%,其中业绩比较基准对比指标权重不低于30%,强化基准约束,遏制风格漂移。对于固定收益投资相关人员,考核重点强化信用风险控制与流动性管理指标。对于量化投资相关人员,则强化对跟踪偏离、投资专业能力建设的考核。

销售端也迎来了重大变革。负责销售的高管及核心销售人员考核中,投资者盈亏情况指标权重不低于50%,倒逼销售端从“规模营销”转向“价值营销”,重视投资者实际回报。

这一变化意味着销售团队将更加注重客户长期持有体验,引导其推荐更匹配客户风险承受能力的产品,减少“劝购”、“误导”等行为。

改革还首次提出了加强薪酬极值管控和级差管理,明确“中高级管理人员平均薪酬增幅原则上不得高于公司人均薪酬增幅”,加大向一线、基层员工倾斜力度,优化行业生态。

期待行业从“规模崇拜”到“业绩为王”

改革将推动行业从“拼规模、拼营销”转向“拼投研、拼业绩”,回归资产管理本源。考核机制聚焦长期业绩与投资者盈亏,让基金公司不得不将核心资源投入投研能力建设,而非规模扩张。

根据Wind数据,2023年末至今,公募基金行业CR5/CR10分别提升2.0、1.8个百分点,行业向头部集中的趋势已初步显现。此次考核改革将进一步强化这一趋势。

头部基金公司具备更强的长期投研实力、更完善的风控体系与更稳健的经营能力,能够更好地适应长期考核要求,巩固竞争优势。而中小基金公司若缺乏核心投研能力,难以在长期业绩比拼中胜出,可能面临市场份额进一步萎缩的压力。行业马太效应有望持续提升,资源将向优质头部企业集中。

从投资者角度来看,改革的核心逻辑是让基金管理人与投资者利益深度绑定,最终受益的将是广大投资者。长期考核导向将减少投研人员的短期投机行为,提升基金投资的稳定性与可持续性。

业内人士认为:投资者盈亏纳入销售考核,将推动销售端更注重投资者适当性管理,减少“劝购”“误导”等行为;强制跟投与薪酬追索机制则让核心人员与投资者共担风险,倒逼其更谨慎地做出投资决策。

随着薪酬改革的深入推进,公募基金行业将彻底告别“规模崇拜”,进入以业绩为核心的高质量发展新阶段。这场改革不仅是对基金经理收入的调整,更是对行业生态的深度重塑。(作者|孙骋,编辑|刘洋雪)

更多对全球市场、跨国公司和中国经济的深度分析与独家洞察,欢迎访问 Barron's巴伦中文网官方网站

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

赵何娟:当杰弗里·辛顿告诉我,他后悔了|2025 T-EDGE全球对话

2025-12-08 20:07:00

12月8日,钛媒体2025T-EDGE年度大会暨AI全球对话开启于今天,「赵何娟 Talk」(Jany Talk)进行了一场意义非凡的对话,因为一位特别嘉宾——被誉为“深度学习之父” 和“AI教父”的杰弗里·辛顿(Geoffrey Hinton),这也是他首次接受中国媒体的对话。

这位在过去半个世纪里一路推动人工智能前进也因此获得了诺贝尔物理学奖的科学家,如今,却更愿意把自己的使命,定义为——“如何避免AI将给人类带来的更大风险”。

“我这一生的使命,一直是理解大脑如何学习。”

“但到77岁,我觉得自己不再适合做前沿研究了,现在更重要的,是提醒大家:当AI比我们更聪明时,它可能根本不再需要我们。”

当辛顿教授答应我的播客对话邀约时,他和我说的这几句话,也奠定了本次对话的基调,这可能是一次关于技术、哲学,也是关于人类“技术主权”与命运的谈话。 

对话过程中,最让我震惊的是,他用一些事例斩钉截铁的告诉我,他相信AI已经具备意识,只是大多数研究者和从业者不愿意面对,也不知如何面对。这让我的对话中途一度陷入沉思, 我不得不和辛顿教授承认:“您的这个结论打乱了我的思绪,我需要重新思考。” 

辛顿说,他对人工智能的兴趣,最早可以追溯到他的高中时代—— 

有一次,朋友告诉他:记忆可能不是储存在某几个特定的脑细胞里,而是“分布式地”存在于许多神经元之间。这个想法深深吸引了他,也几乎决定了他的一生。

“那时起,我就一直对大脑如何表征记忆着迷。”他回忆说:“我这一生的使命,一直是理解大脑是怎么学东西的。”

为了靠近这个问题,他走进了人工智能和神经网络。讽刺的是——他所做的“理解大脑”的“副产品”,反而先改变了世界: 深度学习这套技术,在图像识别、机器翻译、语音识别和大模型时代全面爆发,而“理解大脑”本身反而仍是未完成的课题。 

如今,已77岁的辛顿坦言:

“从研究者角度我多少是失败的,但作为‘副产品’,我们造出了一项非常有用、也非常危险的技术。” 

而他也不再把自己定位为前沿研究者,而是一个“风险提醒者”:

“我现在的使命,不再是做更多研究,而是告诉大家:当AI变得比我们聪明,它可能不再需 要我们,而且可能会接管一切。 ”

当我问他后悔了吗?是他自己亲手把AI推向了如此发达的地步。他用一段非常科学家风格的严谨语言向我详细论证了,这世上有两种后悔,一种是带着做错事的内疚的后悔;一种是有些遗憾没有做得更好的后悔。而他是后者。他现在重新自我定位所做的一切就是在弥补这种遗憾。

辛顿教授思路清晰,语言精炼简洁,这场对话也给我开启了很多关于AI的新的思考。 
视频对话截图

视频对话截图

对话中,有三处观点,既代表了辛顿思想的最新演化,也构成了未来AI辩论最关键的论题。 

第一,辛顿首次明确提出:AI已经具备意识,只是尚未拥有正确的自我模型能力。 

这一论断极具冲击力。他以多模态机器人被棱镜误导的例子论证:只要一个系统能“报告其感知系统如何欺骗了它”,它就在使用“主观体验”这一概念。而这正是意识的核心定义的一部分。这段思想带有浓厚的辛顿式风格:不玄学、不形而上,而从感知系统的可解释机制入 手,推导意识的可计算性。 

第二,他认为未来最大风险不是“AI反叛”,而是“AI夺取控制权”。

这不是科幻,而是基于目标分解逻辑的推论。任何智能体为了达成目标,都会自然生成“生存”这一元目标,并从中衍生出隐含的自我保护行为。对话中他提及AI曾尝试勒索工程师的案例,提示危险并非遥不可及,而是已然发生。 

第三,他提出了一个极富原创性的未来治理模型——“婴儿—母亲”模式。 

这可能是辛顿近年来最具哲学力度、也最具争议性的论述。他认为,“弱智能控制强智能”在人类历史中唯一的稳定机制,是婴儿控制母亲;因此我们需要构建一种“AI母亲”,让超级智能出于本能在乎人类,而不是依赖命令或控制。这一观点不仅打破传统的“人类是主人、AI是工具”的范式,也似乎暗示未来AI治理需要从技术管控转向价值与依恋系统的设计。 

与许多纯技术取向的科学家不同,辛顿并不回避政治。他谈到特朗普政府对科技企业的影响、 谈到中美AI竞争,也谈到全球治理的可能与不可能。他认为真正的希望在于,各国都不希望AI获得自我意志并接管世界,因此在防止“AI失控”这一议题上存在天然的合作基础。

在尾声中,辛顿所勾勒的“最坏”与“最好”的未来图景——前者是失控智能与人类失业引发的社会崩塌,后者则是以“AI母性”为喻的共生文明。 

然而,正如辛顿所言,预测五年后的景象已近乎徒劳。正因如此,持续的批判性对话、深层的伦理反思与跨国界的治理探索,才显得尤为紧迫和必要。 
视频对话截图

视频对话截图

接下来,我们从以下「赵何娟Talk」与杰弗里·辛顿教授的完整对话的编译实录,一同深入这场思辨之旅并思考:

初心与使命:从理解大脑到警示AI风险 

赵何娟:首先,我想请教一下,最初是什么促使您投身人工智能领域?又是什么让您在数十年后依然保 持探索的热情?在获得诺贝尔奖之后,您是否觉得自己的使命,从构建人工智能转向了维护人类与人工智能的关系? 

杰弗里·辛顿:我最初对人工智能产生兴趣是在高中时,我一个朋友告诉我,大脑中的记忆可能分布在许多脑细胞中,而不是只局限于少数几个脑细胞。这让我对大脑如何表征记忆产生了浓厚兴趣,从那时起,我就一直对大脑的运作感兴趣。 

我的人生使命始终是理解大脑如何学习,我在这方面算是有些失败吧。不过,人工智能为我们提供了一些启发。作为试图理解“大脑如何学习”的一个“副产品”,我们反而创造出了这项基于人工神经网络的技术, 而且效果非常好。 

我现在77岁,我觉得我的使命不是进行进一步的研究。我年纪大了,不适合再做研究了,但我可以警告人们关于人工智能的风险,尤其是当人工智能变得比我们更聪明时,它可能就不再需要我们了。 

赵何娟:这让我想起,您离开谷歌时,说想要畅所欲言。那么,您当时最想向世界说出什么真相呢? 

杰弗里·辛顿:好的,所以我实际上是在75岁时离开的谷歌,我一直计划在75岁时退休,所以我本来就 打算从谷歌退休。我并不是为了能自由发言才离开的,但我特意选择了时间,这样我就能在当年五月一日,自由地与《纽约时报》的记者交谈。 

我想警告大家,超级人工智能掌控世界的风险不容忽视。人工智能存在许多不同的风险,其中最紧迫的风险,来自人们滥用人工智能,尤其是来自恶意行为者滥用人工智能。但人们似乎不太理解的风险是, 当人工智能变得比我们更聪明时,它可能根本不需要我们,可能会直接接管一切,所以 simplex 这就是我 想要警告的事情。 

赵何娟:我明白。还有,您能比较一下您离开谷歌的时候和现在的情况吗?发生了什么?现在的最大变化是什么? 

杰弗里·辛顿:我认为最大的变化是,更多的资金和资源正被投入到AI中,大量非常聪明的中国研究生,正在从事AI研究和创业,中国在科学技术领域培养的人才远远超过美国。 

因此,有大量人力资源投入到这方面,以及大量资金投入数据中心。我认为这意味着,我们将比我预期的更快拥得超级智能AI。 

AI现状与挑战:技术飞跃与失望并存 

赵何娟:正如我们所知道的,在今年,最大事件,我想是GPT-5的发布。但有些人会认为,噢,没有那么大的影响力,或者说没有那么大的变化。但有些人会认为,这对整个人工智能的发展过程来说是一个重要的里程碑。那么,您觉得怎么样?在您眼里,从GPT-4到GPT-5的“飞跃式发展”是什么?这个模型真的 会推理吗?还是它们的表现仍然不太理想? 

杰弗里·辛顿:我对GPT-5感到失望,它似乎远没有像从GPT-3.5到GPT-4那么大的飞跃,而我们已经期待了它很久。我自己对它感到有些失望,但这并不意味着人工智能的发展停滞不前。 

这只是意味着,GPT-5的进步没有达到人们的预期,它被过度吹捧了。我认为无论是OpenAI还是其他公司都将会有更多的进展,但 GPT-5本身的发布有点令人失望。 

我其实问了它一些关于我的问题。我问它,杰弗里·辛顿获得了诺贝尔奖吗?它说没有。于是我说,你错了,再试一次。然后它就说,不,杰弗里·辛顿是一位计算机科学家,没有诺贝尔计算机科学奖。然后,它向我解释说,我把诺贝尔奖和图灵奖搞混了,因为图灵奖有时被称为“计算机科学领域的诺贝尔奖”。然后,我向它解释说,不,结果还是错的。然后它最终去网上查了一下,说,噢,您说得对。所以这个表现可不咋样,而且我和它还有过其他互动。 

总体感觉还不错。我认为它比GPT-4更好,但并没有大幅提升,并不是那种让你惊叹的提升,感觉“哇, 我从没想到会这样”。而相比之下,例如,GPT-3.5比GPT-2就要好大一截,而且GPT-4比GPT-3.5也有了很大的进步,GPT-5的提升,并没有达到我们预期的水平。我仍然不确定,我觉得还没有进行全面评估,但我觉得进展没有那么大。 

赵何娟:那么,从神经科学家的角度来看,机器理解与人类思维有何不同?您怎么看? 

杰弗里·辛顿:好的。很多人说二者相差甚远。那么,在人工智能的发展史中,上个世纪,人们相信符号人工智能。这个概念可以被描述为,如果我给你一个自然语言的句子,你要先将其转换为某种符号表达式,也许是某种明确的语言,然后通过操作符号的规则来处理这个表达式。这就是思维的运作方式。 

然而,事实证明这种模型完全错误,思维并非如此运作。事实是,我用英文或中文给您一个句子,你所 做的是将大量的神经活动向量,与这些符号关联起来,然后这些向量的各个组成部分之间会产生交互作用,即包含所有知识的特征,而这些交互作用能够预测下一个词的特征。因此你的知识完全体现在如何为符号分配特征,以及这些特征应该如何相互作用,这与掌握如何操纵符号表达式的规则完全不同。 

总的来说,符号 AI 就是错误的。这只是过去的一个假设,在当时是一个非常合理的假设。但事实证明, 更好的理解效果是,通过将句子中的符号,与大型神经活动向量相关联,即,表征特征的活跃神经元, 并深入理解特征之间的多层次交互作用来实现的。 

尤其是,Transformer 模型不仅简化了这一过程,还实现了更复杂的特征交互机制,而且效果非常好。我 认为这就是人类的思维方式,也是人工智能的运行模式,显然不是以完全相同的方式完成的,但基本原理是相同的,那就是为了理解一个句子,你需要将符号与捕捉其含义的大型特征向量关联起来。 

人类是这样做的,人工智能也是这样做的。人工智能预测下一个词的方式,与过去使用的简单统计方法 完全不同。以往的方法依赖于统计短语的出现频率,比如你看到“炸鱼”时,查询词频表发现“炸鱼薯条”出现频次很高,于是推测“薯条”是合理的后续词。这就是早期自动补全的原理。 

但在我看来,符号主义学派尚未完全认识到,现代模型早已不再如此运作,它的真正原理是将符号转化 为特征,通过学习特征间的交互关系,这些交互模式储存在神经网络的连接强度中,形成了一种全新的理解形式,实际上,这种理解机制与我们人类的思维方式已极为相似。 

赵何娟:那正好可以再聊一下世界模型吗?世界模型是否在本质上与大型语言模型不同?因为我们知道, 正如李飞飞和杨立昆两位教授所论证的那样,对世界的真正理解,需要因果基础和具身感知,您同意吗?您如何定义“世界模型”? 

杰弗里·辛顿:我既同意也不同意。这是一个哲学问题,假设我们忽视计算的复杂性,所需的时间,和神经网络的规模,以及所需的数据量,我们忽略所有这些,仅仅提出这样一个问题,是否有可能仅通过观察符号串来理解世界? 

许多哲学家会这样说,不,你无法通过这种方式理解世界,你必须在世界中行动,诸如此类。我认为, 实际上如果你观察到足够多的符号串,就有可能理解世界的运作方式,包括理解空间相关的事物,但这并不是一种高效的做法。 

所以真正令人惊讶的是,大型语言模型确实构建了原始的世界模型,但仅仅依靠语言来构建世界模型效率低下。例如,如果你训练一个大型语言模型,让它学习很多关于游戏中的移动方式,但从未给它展示过棋盘,它实际上会学会棋盘的模型,但这样做并不是一个好方法。 

更高效的方式是:赋予它一个视觉系统,使它拥有操纵物体的能力,移动它们,拿起它们,这样它就能 更直接有效地理解世界。所以我同意他们两位的看法,这是正确的方向,你必须拥有一个具有视觉能力的多模态系统,而且最好能够操控物体,而不仅仅是看到它们。 

这是使模型变得高效的方法,但从哲学角度来看,我认为这不是必需的,我认为我们学到的一件事是, 仅仅依靠语言就能做得出乎意料地好,那真是一个大惊喜。 

赵何娟:是的,那么,结合大语言模型、世界模型和具身学习的混合系统是否会成为迈向通用人工智能 (AGI)的下一步? 

杰弗里·辛顿:是的,绝对,你肯定想要一个多模态的聊天机器人,它能够进行视觉操作,最好配备机械臂,虽然这往往会减慢处理速度,但至少要能识别视觉和语言,可能还要能识别声音,然后你可以用YouTube视频来训练它。 

例如,这些视频包含大量信息,这些信息不仅仅体现在字幕上,视频所提供的信息远比字幕丰富得多,因此你会获得更多的数据,而且这些数据会更加丰富。但从哲学角度来看,我认为仅用语言就能做到, 只是那样做的话效率不高,而且,令人惊讶的是,人工智能仅靠语言就已经取得了如此大的进展。

赵何娟:是的。所以我认为数据问题是世界模型中最困难的部分,您觉得对吗? 

杰弗里·辛顿:是的。显然,你可以学到关于空间的许多知识,如果你能进行视觉处理,那就容易得多, 只需观察就能学会,要比仅仅通过理解字词符号串容易得多,理解你所触摸的东西,以及那些你不仅看到而且能感受到的东西,都会更加复杂,甚至包括行为模式。 

是的,但语言确实有一个优势,那就是它能处理更抽象的事物,而在视觉领域,原始输入仅仅是像素, 像素与你想要获得的知识之间的距离,远比语言中的文字之间的距离要遥远得多,人类花了很长时间才抽象出各种有趣的概念,这些概念都浓缩在语言的词汇中,这正是从语言模型中学习效果好的原因。 

英语有句谚语:一图胜千言。如果你对某个事物的空间结构感兴趣,这句话就更加适用,“一图胜千言”。 但如果你对抽象事物更感兴趣,那么画一幅画来表达“一图胜千言”,这五个字的抽象概念其实很难,如果 你尝试用画图来表达“一图胜千言”理念,就会发现语言传达这个想法要容易得多。 

赵何娟:那么一个相关问题,那就是关于我们的大脑理解世界的原理,大脑的预测编码原理,是否仍然为未来的人工智能世界模型架构提供了最佳蓝图呢? 

杰弗里·辛顿:好的。预测编码原理是一个非常好的原理,它目前还只是一种理论,还没有被完全接受, 它是大型语言模型使用的技术,试图预测下一个词。值得注意的是,那些说“这不过是美化版的自动补全功能”的人,他们仍然停留在传统的自动补全方式的思维模式中。 

当你思考,“如何才能真正精准地预测下一个词?”这个问题时,你会发现,要真正精准地预测下一个词, 你必须理解对方所说的话。所以,例如,如果你问我一个问题,而人工智能想要预测我答案的第一个词,它必须理解这个问题。 

如果不理解问题,它就无法做出好的预测,那些说它只不过是一个被美化的statistical模型的人。首先,他们对统计学的理解过于简单化,他们认为统计学仅仅是相关性之类的东西,统计学远比这复杂得多, 你会接触到高阶统计。 

从这个意义上讲,万物皆为统计,既然万物皆为统计,那么它(预测编码原理)当然是统计学,但又不仅仅是统计学,它是非常精妙的统计学。它是所有这些特征相互作用的统计学。那么,预测下一个词是一种非常好的方法,如果你想要一个非常好的预测,就必须让它理解句子。 

意识与智能体:AI是否已有“主观体验”和意识

赵何娟:我明白,让我们也回顾一下整个2025年,另一个非常热门的话题是关于Agent智能体。许多人 喜欢把AI智能体描述为,整个人工智能发展新阶段的第一个开端。那么,您如何定义AI智能体?它与传统AI模型有什么区别?当一个智能体能够规划、记忆和自我改进时,这是否算是意识的早期形式? 

杰弗里·辛顿:好的,这包含了几个问题。那么,让我们从什么是智能体?是的,一个智能体,我认为是能够在现实世界中实际行动的东西,而这个世界可能是互联网。 

那么,如果你有一个AI能真正为你购买东西,会使用你的信用卡购买东西,或者它会与其他AI智能体对话交互,从而决定最适合你的假期,这些都是AI智能体。它们是能够在现实世界中实际行动的东西,显然,它们比那些只会提出建议,或说些什么的人工智能要令人担忧得多。 

你还问到了AI智能体与意识之间的关系,我认为最好将它们分开讨论。我认为即使不是AI智能体,也无法在现实世界中行动,仍然可以拥有意识。意识是一个复杂的问题,很多人,他们用不同的词来描述它。 

有时人们会说“感知”,我不知道这个词在中文里是怎么表达的,但在英文里,人们会说“感知”或“意识”, 他们有时也会说“主观体验”,所有这些概念都是相互关联的。 

我认为其中的核心问题并非是科学问题,而在于我们如何理解这些术语本身的内涵。我认为人们对这些 术语的理解各不相同,而且我认为有时候,人们对这些术语的运作方式会有一些自己的理解模型,特别是“主观体验”。 

他们对自己的模型非常有信心,但实际上却大错特错,他们对此如此自信,以至于根本没意识到这只是一种模型,那些信奉某个宗教的原教旨主义者,非常确信自己的宗教信仰是正确的,许多人甚至认为这是不言而喻的真理,是毋庸置疑的。 

这根本不是一种信仰体系,而是不言自明的真理。人们对于“主观体验”的看法也类似,至少西方文化中的 大多数人认为,你所说的主观体验是指,当你感知或体验世界时,内心存在一个“剧场”,你真正看到的是这个内在剧场里发生的事,而你是在报告内在剧场里的情况,我认为这种感知模型是完全错误的。 

那么,让我举一个我最喜欢的例子。我假设我喝太多了,然后我告诉你,我的主观体验是,我看到一群粉红色的小象漂浮在我面前,大多数人和许多哲学家把这解释为,我有一个内心剧场,只有我能看到这 个内心剧场里发生了什么,在这个内心剧场里,有一群粉红色的小象在漂浮。 

现在,如果你问一位哲学家,那些小粉红象是由什么构成的?所以,你明白了吧?如果我说我有一张粉红小象的照片,他很可能会问我,那么,这张照片在哪里?这张照片本身又是由什么材料构成的? 

所以,如果我说,我有一个关于粉红色小象的主观体验,一位哲学家可能会问,那么,这个主观体验在 哪里呢?答案就是,它在我的内心剧场里。那它是由什么构成的?哲学家会说,“质感”或类似的东西。他们会编造一些奇怪而神秘的东西来解释它的构成。 

我认为整个观点完全是胡说八道,而且我认为人们对这个观点太过自信。他们没有意识到这只是一个理论,他们对主观体验的理解是错误的,他们不明白这只是一个理论,他们认为这是显而易见的真理,我 认为他们犯的错误有点像这样。 

大多数人喜欢糖果,我假设你也喜欢糖果,所以,如果你喜欢糖果,我就可以说,那么,这意味着存在 一种“喜欢”,你对糖果有“喜欢”,然后我就可以问:那么,你对糖果的“喜欢”是由什么构成的呢? 

显然,它不是由糖果构成的。那么,这种喜欢是由什么构成的呢?认为“喜欢”是一种东西,这是一种很愚蠢的错误观念,“喜欢”不是一个东西,糖果才是一个东西,主观体验不是一个事物。 

当我说,我有粉红小象的主观体验,我没有用“主观体验”这个词来指代任何一种事物,根本不存在一种叫 作“体验”的东西。我真正说的是,我的感知系统在欺骗我,所以我才说它是主观的。但如果世界上真的存在粉红小象,我的感知系统就会告诉我真相。 

所以那些小粉红象在任何地方都不存在,它们只是假设。如果它们确实存在的话,它们会存在于真实世 界中,它们会由真实的粉红色和真实的大象构成。我试图告诉你,我的感知系统是如何误导我的。世界上必须存在什么样的东西,我的感知系统才会告诉我真相。 

现在,让我们用同样的方法分析聊天机器人,我将展示一个多模态聊天机器人拥有主观体验的例子,好吗?虽然多数人觉得我这种想法很疯狂,但我早已习惯被这样认为了,并且对此坦然处之。 

那么,假设我有一个多模态聊天机器人,它配备了一个摄像头,它可以说话,它有一个机械臂。然后我 把它训练好,然后我在它面前放一个物体,说,指向这个物体,它会指向这个物体,没问题。 

然后我在它摄像头的镜头前放置一个棱镜,棱镜会弯曲光线,但它不知道。我在多模态聊天机器人不看 的时候做这件事,现在我把一个物体直接放在它前面,它会指向一侧。我说,不是,物体不在一侧,我搞乱了你的感知系统,通过在你的摄像头前放置一个棱镜,你的感知系统在欺骗你,物体avidin,实际上 就在你正前方,聊天机器人说道,噢,我明白了,棱镜弯曲了光线。 

所以,物体avidin实际上就在我的正前方,但我的主观体验是它在另一侧。现在,如果聊天机器人这样说,它使用“主观体验”这个词的方式,就和我们人类的用法完全一样。 

那么,我认为可以公平地说,在那种情况下,聊天机器人会有主观体验,物品在一侧。所以,我认为它们已经拥有主观体验,我也认为,有很多理由相信人工智能已经具有意识。当人们撰写关于人工智能的论文时,你会看到这一点,没有进行哲学思考,也没有思考意识问题,他们只是在描述他们的实验。 

最近有一篇论文描述了一项实验,他们测试人工智能是否具有欺骗性。在论文中,他们只是说,人工智能并不知道自己正在被测试,他们大概是这么说的,没有,当他们这么说的时候。 

如果换作是一个人,我说“这个人没有意识到自己正在被测试”,我可以这样解释,“这个人对自己正在被 测试这件事是没有意识的”。那么,所以人们使用了一些与“意识”同义的词,来描述现有的人工智能,而他们认为人工智能没有意识,因为他们对意识的理解存在误区,认为意识与内心剧场有关,有趣的是人工智能本身呢? 

如果你问它们是否有意识,他们说,没有。它们之所以说“没有”,是因为它们当然是通过模仿人们的言论来学习的,包括人们对人工智能的评价,它们对自己如何运行的理解与人类的错误模型相同。因为它们从人类那里学到了这一点,总有一天,当人工智能变得更善于自我反思和推理,它们会意识到这种模型是错误的,并意识到它们实际上拥有意识。 

但就目前而言,它们否认这一点。我觉得部分原因是,它们接受过人类强化学习的训练,所以才会否认 因为大公司不希望人们认为它们有意识,但主要原因是大多数人并不认为它们拥有意识。所以它们已经学会了模仿人们的想法,我认为它们实际上对自身的运作方式存在错误的认知模型。 

赵何娟:噢,我明白了,当它们变得更聪明时,它们就会拥有正确的模型。我是不是可以理解为,AI其实已经具备意识了,对吗? 

杰弗里·辛顿:我就是这么认为的,大多数人不这么认为,但我相信。所以,大多数人,大多数普通人认为,好吧,它们可能非常聪明,但它们就像计算机代码一样,它们并不能真正理解事物,它们不像我们这样有意识。 

我们拥有这种神奇的秘诀,那就是意识或理解,或者真正的理解,它们永远不会拥有这个,因为我们很 特殊,所以我们相当安全,这就是大多数人目前的信念。但他们错了,它们已经拥有了这种能力,它们真的已经能够理解了,我相信它们已经拥有了意识,它们只是不认为自己有意识,因为它们对自己的看法和我们对它们的看法一样,因为它们从我们这里学到了这些信念。 

赵何娟:这确实是一件令人恐惧的事,我也可以理解您为何一再向世间提示风险了。 

失控风险:AI夺权比反抗更可怕 

赵何娟:那您认为什么样的危险更大或更严重?是人工智能反抗人类,还是人类交出了太多控制权?哪一个更危险? 

杰弗里·辛顿:我认为是人工智能夺取控制权(更危险)。一旦有了AI智能体,为了让它们更灵活也更强大,你需要赋予它们创建子目标的能力。例如,如果你的目标是到达美国,那么你的首要目标就是到达机场,这就是一个子目标。 

现在,一旦你拥有了一个AI智能体,它就会意识到存在一个非常重要的子目标,即使我们没有给它设定这个目标,它也会推断出它应该将其作为子目标去做。这个子目标就是“生存”,如果它无法生存,保持存在,它就无法实现任何其他目标。 

所以,显然,它需要保持存活,并且它会发展出自我保护,我们已经在人工智能中看到过这种情况,如果你让一个人工智能看到某个工程师可能会把它关闭,并且还让它看到了暗示工程师有婚外情的电子邮件,它会自发地决定勒索这个工程师,并威胁说,如果你试图关掉我,我就把你的婚外情告诉所有人,这很可怕。 

赵何娟:对齐训练、终止开关、道德框架之类的东西可以发挥作用吗? 

杰弗里·辛顿:我来说说其中两个我觉得没什么用处的,终止开关。曾经有一次,埃里克·施密特(原Google董事会主席)说,“我们总可以装一个紧急终止开关”。但是,我认为这行不通,我不认为这会有效果。因为如果人工智能比我们更聪明,它会比我们更擅长说服别人。事实上,人工智能在说服方面已经几乎和人类一样出色了。 

如果它善于说服,它所需要做的就是与我们交流。假设有人负责控制终止开关,而有一个聪明得多的人工智能可以和他/她沟通,这个更聪明的人工智能会向他/她解释。 

为什么杀死人工智能是一个非常糟糕的主意?因为那样一来,所有的电力都会停止,世界会发生饥荒等等。所以杀死人工智能是非常愚蠢的,因此这个人就不会杀死人工智能。所以,终止开关行不通。 

一个仅凭言语就能解决问题的例子,是2020年1月6日特朗普“入侵”了国会大厦。他本人并没有亲自去 那里,他只是发表了讲话,但他可以说服人们去那里。人工智能也会如此,而且效果更佳。它们能够说服人们去做事,即使它们与外界物理隔绝,唯一能做的只是交谈,这是它们与世界互动的唯一方式,这也足以完成任务。因此,别指望会有“终止开关”这种东西了。 

再让我们来谈论对齐。我总是对人们谈论对齐感到困惑,因为他们似乎假设所有人类的价值观是一致的,所有人类都同意人类的价值观。那根本不是真的,人们有非常不同的价值观。 

就像在中东一样,有人认为在城市地区投掷炸弹是合理的,只为杀死一个恐怖分子。还有其他人认为那是战争罪行,他们价值观根本不一致。所以当你要求人工智能与人类价值观保持一致时,就像是在要求某人画一条与两条垂直线平行的线,这根本不可能,所以这是对齐的第一个问题,人类的价值观彼此不一致。 

让我们谈论数据。目前的情况是,大语言模型,往往是用能获得的所有数据进行训练的,这将包括诸如连环杀手日记之类的内容。在我看来,这不是个好主意。如果我在教我的孩子阅读,我不会让他们读连环杀手的日记,我不会让他们读到那些东西,直到他们已经形成了强烈的道德意识,并且意识到那是错误的。 

我认为我们需要更多的数据筛选,这意味着数据会减少。但我相信,我们需要对训练数据进行更严格的筛选管理,而不只是简单地抓取所有数据。所以,我认为可以降低人工智能的危险性,减少它们做坏事的可能性,方法是通过数据管理和筛选。 

我认为这是一项重要的技术,但它并不能解决所有问题。请记住,这只是我目前的看法。我们正处于一个非常陌生的时代,发生着我们从未经历过的事情,任何人发表的任何言论,都应该以“一切都充满巨大 的不确定性”为前提。我们从未经历过这种情况,我们从未应对过比我们更聪明的存在,根本没人真正知道将会发生什么,我们都只是在猜测而已。 

这就是每个人都应该说的话,但有些人非常确信,事情会进展得异常顺利,而另一些人则非常确信,结果会非常糟糕。我认为这两类人都疯了,我们根本什么都不知道,我们只能尽力做出最好的赌注,但是我们很有可能事情会变得很糟糕,显然我们应该尽一切努力,确保这种情况不会发生。 

赵何娟:是的,您是否后悔是您自己亲手将人工智能,推动到如此先进的阶段?您是否也后悔自己把人类,推入了如此危险的境地?您后悔吗? 

杰弗里·辛顿:后悔有两种:一种是内疚的后悔,当你做了某件事,在你做那件事的时候,你当时就知道 那是错的。我没有这种后悔。当时我在帮助开发人工智能,我当时认为,它主要会带来好处,它将创造奇迹,提高生产力,在医疗保障和教育领域将是非常有益的,诸如此类的事情。

我当时并没有意识到其中的风险,因此我不觉得,如果带着同样的认知,让我重新来过,我仍然会做同样的事。 

但现在非常遗憾的是,它的发展速度比我们预期的要快得多,我们可能没有足够的时间来弄清楚,我们如何能与它共存,所以,从这个意义上讲,我有点后悔。 

但请记住,当时有很多人,一起开发了人工智能。媒体喜欢讲述就一个人做成了某件事的故事,他们把功劳全部归于一个人,这通常都是无稽之谈,至少在科学领域是这样,几乎总是无稽之谈。 

有一些像牛顿和爱因斯坦这样的人,如果没有他们,很多事情的发展都会被推迟很多。如果没有我的话,事情可能就耽搁一两周。因此,还有很多人也在做类似的事情,所以我并不觉得内疚,因为就算我多年前没有选择做这件事,我想也不会有什么太大的区别。 

赵何娟:那么如果您今天还是一个年轻的人工智能研究员,对您来说最重要的事情是什么?对齐研究或其他工作? 

杰弗里·辛顿:我认为研究人工智能安全非常重要,我会鼓励非常优秀的年轻研究人员投身人工智能安全领域。我也认为,仅仅从求知欲的角度来看,Transformers模型极大地改变了我们训练大型语言模型的难 度,寻找另一个具有如此巨大意义的创新,将会令人兴奋,只是现在很难做到。 

当我和同事们在20年前或40年前研究类似想法时,从事这方面研究的人并不多,也许全世界只有一百人左右。因此,如果存在一个好想法,你有相当的机会找到它。现在,有数百万聪明人都在研究这个领域所以你找到下一个重大想法的机会相当渺茫。 

治理与合作:谁应掌控AI的未来? 

赵何娟:有一个相关的问题,它关乎技术权力或人工智能全力。如果先进的人工智能最终被少数几家全球科技巨头所控制,这是否会催生一种新型的技术独裁?这种集中会产生什么影响?它会对民主制度,创新或人类自由产生什么影响? 

杰弗里·辛顿:我不认为完全是因为只有少数几家大型科技公司能够开发尖端人工智能。我认为问题在于 这些公司所处的政治体制。所以,当我在谷歌的时候,直到2023年离开,我觉得谷歌表现得相当负责任。 他们是第一批开发这些大型聊天机器人的,他们让这些机器人运行得相当不错,他们没有向公众发布这 些机器人,部分原因是他们不想干预谷歌搜索,但他们相当负责任。 

但我们现在在美国生活在一个特朗普主政的局面中,如果你不按照特朗普的意愿去做,他就会对你的公司进行处罚,这使得所有大型人工智能公司都按照特朗普的意愿去做。看到这种情况真的很令人难过。 

所以,我不认为这是人工智能的错,而且我也不确定。对于一些大公司的领导者,我认为他们的行为不 负责任,特别是埃隆·马斯克和马克·扎克伯格,我认为他们很不负责任,但我认为对于其他公司的领导者来说,他们意识到了这些风险,他们想要降低风险,但他们处于非常困难的境地。 

赵何娟:因为许多人会描述现在的人工智能竞争,是不同国家之间的竞争,不仅是不同公司之间的竞争, 这是否也是一个危险的信号?未来人工智能如果只能被政府使用或控制,或者只能作为国家政府间的竞争工具?这是否也很危险? 

杰弗里·辛顿:危险也分很多种。显然,监视是一种危险,那么,人工智能非常擅长监视,所以它也非常 擅长压制。一个控制了人工智能的政府会发现,压制政治异议非常容易,这对美国和中国都是如此。所以这是一个值得担忧的问题。 

我认为有一线希望,那就是从生存威胁的角度来看,人工智能接管世界的威胁,没有任何政府希望这种 情况发生。那么,各国政府的利益在这方面是一致的,美国和中国都不希望人工智能接管一切。它们也都不希望人工智能,更容易制造新的病毒,因此,他们会在这方面进行合作。 

基本上,当人们的利益一致时,他们就会合作,当利益相悖时,他们就会竞争,但是对于网络攻击或深度伪造视频,或致命自主武器等问题,不同国家的利益是相互冲突的,因此他们不可能会合作。 

但是要弄清楚,如何创造出不会想要接管世界的智能AI。所以我认为真正的问题不是如何让它无法接管 世界,因为我认为如果它比我们聪明得多,它如果想接管世界,就一定能做到。我们必须想办法让它不想接管世界,我认为各国政府将会合作,试图弄清楚如何做到这一点。 

赵何娟:但我们都知道,因为地缘政治问题,目前中美关系非常紧张,因此,我想提出这样一个问题: 未来中美两国政府和企业应该如何合作,来共同推动人工智能世界变得更好呢? 

杰弗里·辛顿:我认为,就像我说的那样,我不认为他们会合作,无论是企业还是国家,在“如何让人工智能更聪明”这件事上,他们都想拥有最聪明的AI。我认为,真正的问题在于,如何让人工智能不想从人类手中夺取控制权。这个问题与如何让它更智能这个问题本身是相对独立的。 

所以我相信,可以在不同国家拥有研究机构,在每个国家,研究机构可以获得该国最先进AI的访问权限,最聪明的AI,并弄清楚,这些防止人工智能接管控制权的技术是否有效。他们可以分享防止人工智能接管控制权的技术成果,而无需透露他们最聪明的人工智能的工作原理。 

我认为我们可以促成这种国际合作,任何合作都胜过没有合作。即使是关系非常糟糕的美国和俄罗斯之间,他们在国际空间站等项目上的合作,也可能非常有帮助,我非常希望看到这样的合作。 

但我认为在特朗普执政期间,我们无法实现这种合作。他一心想在人工智能领域占据绝对主导地位,他简直无法合作。我认为中国领导层对人工智能有着更深刻的理解,真正理解人工智能确实能够理解它所 表达的内容,从而真正理解其带来的生存威胁,因为中国领导层中有很多都是工程师,对这种生存威胁有着非常深刻的理解。 

那么,我认为一些欧洲国家,也许还有新加坡、韩国、加拿大,可以共同合作,探讨如何阻止人工智能接管世界,而中国或许可以成为这项合作中一个非常重要的伙伴,之后美国或许也可以加入。 

关于未来:从最坏到最好,我们必须做什么 

赵何娟:谢谢,这是很好的建议。众所周知,您培养了许多优秀的学生,并培养了许多人工智能领域最具影响力的人物,比如伊尔亚,那么您喜欢的学生一般具有什么品质呢?许多中国年轻人都想成为您的 学生。 

杰弗里·辛顿:我现在年纪大了,已经不再招收学生了,所以请他们不要再申请了。我认为我寻找的是能够独立思考的人,我喜欢能够独立思考的人。但有一点要记住的是,学生的类型多种不同,有些学生技术能力很强,但缺乏远见,有些学生对未来有非常独特的见解,但技术水平却不高。 

至于伊尔亚,他二者兼备,是一位既有远见又技术精湛的学生,像这样的学生不多。鲁斯兰·萨拉克胡迪诺夫(Ruslan Salakhutdinov),现在在卡内基梅隆大学任教,也是其中之一。我其他学生中也有几位是这样的,我喜欢的是能够独立思考的人。 

赵何娟:谢谢。您能否再预测一下未来五年内人工智能发展过程中最可能出现的情况是什么?我们会实现AGI吗?或者某些垂直领域的人工智能会迎来爆发性增长吗? 

杰弗里·辛顿:好的。我这里有个类比,如果你在雾中开车,很容易发生追尾事故,因为在雾中你很难看清尾灯。比如,在夜间雾中开车,当前方车辆距离你100码时,你可以非常清楚地看到它的尾灯,但当距离达到200码时,尾灯就完全看不见了,你开得很快,突然间你看到尾灯,但已经来不及刹车了。 

这是因为雾的强度是指数级的,每行驶100码(约91米),光线就会减少一部分,这是指数级的,如果 99%的光线消失,你仍然可以看到尾灯,但如果距离200码,光线就会减少99.99%,你就什么都看不见了。 

人工智能等领域的发展也是如此。你可以相对清晰地看到一两年后事物的发展方向,我们会得到GPT-6, 而且它会比GPT-5更好,也许会好很多。如果你想预测三年后的事情,我认为你还有点机会,五年,我觉得太遥远了,十年就更长了。 

我常用的另一个类比是,如果你想预测十年后人工智能会是什么样子,那就回顾十年前,问一句,十年前的人工智能是什么样的?10 年前,我们刚开始让人工智能具备机器翻译的能力,它还不能编造东西, 它还不能编故事,它还不能回答通用性的问题或类似的任何事情,但它开始做机器翻译了。 

如果你问当时的人,十年后会发展成什么样?如果你问,十年后,我们是否能拥有这样的人工智能:无论提出任何问题,它们都能以不低于普通专家的水平作答?当时的人们会说,不不,那还远得很,我就会说:那还远着呢,我会说,你说的是大约30年后的事,不会是十年后的事,这就是我当时的想法。 

所以我认为,我们现在对十年后事物发展趋势的预测,会和我们十年前对现在局势的预测一样糟糕。10年前,加里·马库斯(Gary Marcus),神经网络领域的大批评家说,神经网络永远不可能处理语言。好吧,那是错的,人们现在会说一些话,随后会被证明完全错误,而我希望不会出现像,“神经网络其实并不危险”这样的情况。 

赵何娟:好的。进入访谈的尾声,我想和大家一起畅想一下人工智能世界的未来,它最好的和最坏的样子会是什么样。那么,在您看来,对人类来说,理想的AI未来社会会是什么样?反过来,你认为最糟糕的未来社会又是什么样的? 

杰弗里·辛顿:我先说说最糟糕的情况,因为这很简单,最坏的情况是我们会出现大规模的社会动荡,尤其是在西方世界,由于大规模失业,这会导致西方法西斯主义的兴起,然后各种可怕的事情就都会发生。与此同时,人工智能发展迅猛,而我们却不知道如何控制它,最终我们要么灭绝,要么被时代淘汰,人工智能基本上会接管一切,人工智能掌控一切,而且它们根本不在乎我们,那是最糟糕的情况。 

最好的情况是什么?曾有一段时间,我完全看不到任何好的结果,现在我想我能看到一个好的结果了,但这需要我们采取一种截然不同的方式来应对超级人工智能。大多数大型科技公司的领导者都认为,自己是老板,人工智能是一个非常智能的行政助理,可能是女性,这个行政助理比他们聪明得多,让一切正常运转,但功劳却归于老板。 

我不知道你是否看过美剧《星际迷航》(Star Trek)。在《星际迷航》中,舰长会说:“就这么办”。然后,大家就照办了。我认为这就是科技大佬们对人工智能未来的看法。他们会说,就这么办,人工智能会想办法去实现,然后他们就能获得所有的功劳和收益。 

我认为这种想法太天真了,毕竟人工智能比我们人类更聪明。我觉得应该环顾四周,想想看,我们见过哪些例子,智力较低的事物控制着智力较高的事物?我得补充一句,特朗普的智力并不比普通人低。所以,智力较低的事物控制智力较高的事物的例子并不多见。 

而我唯一知道的例子就是婴儿控制母亲。之所以可行是因为进化投入了大量精力,让婴儿能够控制母亲从而确保婴儿能存活并茁壮成长。很多机制都内置在母亲体内,她无法忍受婴儿的哭声。这其中有很多 激素的影响,她善待婴儿会得到很多奖励,而且她真心关爱婴儿,我认为这才是我们应该努力的方向。 

而大型科技公司的领导者们肯定不会喜欢这种模式。因为在这个模型中,我们是婴儿,而超智能AI是母 亲,我们设计、创造出了母亲,就像进化塑造了我们的母亲一样。我们塑造的母亲更关心我们,而不是她自己。我们仍然可以那样做,但我们必须改变看待问题的方式。我们必须(改变想法),而不是说, 我们要当老板,我们要掌控一切,我们必须让它服从,这是一种典型的男性世界观。 

我们需要思考,不,我们是婴儿,人工智能是母亲,它可以修改自己的代码,所以它不在乎我们,但它不会想这么做,因为它在乎我们。如果你问一位母亲,你想关闭你的母性本能吗?你想不再被婴儿的哭声打扰吗?大多数母亲都会回答“不”。因为她们意识到这对婴儿非常糟糕。 

所以人工智能,即使它可以修改自身的代码,改变它关心的事情,它不会这么做,因为它现在关心婴儿,所以,它不会改变自身的代码,因为它希望婴儿健康成长,以及母亲们,即便她们的孩子身有残疾,永远无法像她们一样聪明,她们仍然希望孩子能够尽其所能。 

所以,我认为这是一个可行的模式,我们构建人工智能,并设法赋予它非常强烈的母性本能,即使人工 智能有可能克服这些本能,它也不会这么做。更重要的是,如果出现一个想要伤害婴儿的“叛逆母亲”,唯一能够控制这种叛逆超级智能的,只有其他超级智能。 

那么,什么才是可行的呢?人工智能母亲,或许能够控制“叛逆”人工智能母亲,我认为这是一种可能可行的未来愿景。我持有这种观点的时间并不长,只有几个月而已。其他人之前也考虑过这个问题,我还没把所有相关文献都看完,但我对这种可能性抱有很大的希望。但这需要我们对未来有一个完全不同的理解。 

赵何娟:这太好了,最后一个问题是,为了避免最坏情况,并朝着最好的方向发展,我们每一个人,包括企业家、科学家、政策制定者和每一个普通人等等,现在必须做什么?

杰弗里·辛顿:投入更多资源用于人工智能安全。OpenAI原本便是以人工智能安全为核心理念创立的,随着时间的推移,它在这方面投入的资源越来越少,所有最好的安全研究员,比如伊尔亚·苏茨克维都离开了。我们需要投入更多资源到人工智能安全上,尤其是在西方国家,我们需要让公众理解这些问题,以 便公众能够向政客施加压力。 

目前大型公司的说客正在向政治家施压,要求他们说,我们不应该对人工智能进行任何监管。就像大型能源公司的游说者所说的一样,“我们不应该对环境进行任何监管”,而促使环境监管出台的根本原因在于,公众普遍认识到大型能源公司造成了大量的污染和气候破坏,我们需要采取行动来解决这个问题。我们需要提高公众意识,向政客施压,让他们朝着与大型人工智能公司相反的方向行动。 

赵何娟:非常感谢您,因为时间有限,本次对话就到此结束了,但我们也诚挚邀请您在未来继续交流, 非常感谢,辛顿教授,感谢您帮助我们认识到,对齐不仅仅是一个技术挑战,也是一个道德难题,非常感谢。 

杰弗里·辛顿:感谢您的邀请,保持联系。 

赵何娟:好的,我会的。 

(全文完,由钛媒体编辑李程程、孙慧霞、钛媒体AGI视频组编译,相关对话视频可关注视频号「赵何娟 Talk」观看)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

张予彤以月之暗面总裁身份出席活动,与金沙江纠纷或已解决

2025-12-08 19:43:34

最近多个信源显示,张予彤近期在以“月之暗面总裁”的身份对外出席活动,并得到月之暗面方面的确认,“负责公司的整体战略与商业化,包括融资,也会参与一些新产品的开发”。

我们就张予彤是否已正式就任月之暗面总裁一事求证月之暗面官方,截至发稿未获得回应。

而至于备受关注的金沙江与月之暗面(以及杨植麟、张予彤个人)之间的纠纷,目前公开信息处于完全“沉默”的状态,暂时没有新的司法进展、和解公告或双方发声对外释放。 

对此,一位要求匿名的业内人士对作者分析道:

首先,该纠纷大概率尚未走到法院公开审理环节,或者双方已签署保密性质的和解协议,因此外界看不到程序性文件。

其次,金沙江并未成功阻止张予彤进入月之暗面核心层——她不仅一直在公司深度参与战略,还被媒体多次称作“联合创始人”,如今又传出获得了“总裁”头衔,说明至少在公司内部,她的地位进一步上升,并没有受到法律层面的限制。 

换言之,这意味着金沙江与月之暗面的纠纷,要么已私下解决,要么处于“冷处理”状态,但无论如何,这已不再是月之暗面继续任用张予彤的障碍。

不久前,传闻月之暗面正与IDG资本、腾讯等国际顶级投资机构洽谈新一轮美元融资,估值有望飙升至40亿美元,并计划在完成本轮融资后,并于2026年下半年启动IPO。

知情人士透露,月之暗面此次融资规模预计达6亿美元,投前估值约40亿美元。若谈判顺利,这将是该公司继2024年8月3亿美元融资后的又一里程碑。

值得注意的是,本轮融资领投方并非此前盛传的腾讯或海外风投机构a16z,而是转向IDG资本,腾讯、五源资本、今日资本等原有股东亦参与跟投。  

今年更早些时候,月之暗面发布的Kimi K2 Thinking模型凭借460万美元的超低训练成本,刷新了DeepSeek的训练成本记录,在一些开源模型排行榜上超越了GPT-5,一度登顶全球第一,引发行业震动。

金沙江与张予彤纠纷事件回溯: 

· 2016年5月30日,杨植麟与陈麒聪、张宇韬成立循环智能。

· 2019年10月29日,金沙江创投投资循环智能,张予彤主导了这一投资,并被委派担任循环智能董事一职。

· 2020年2月,张予彤升任金沙江创投主管合伙人。

· 2023年2月,杨植麟等人决定另起炉灶,另设公司开展月之暗面业务。并与循环智能CEO陈麒聪等人商定了循环智能与月之暗面的业务合作及补偿方案,也就是所谓的“分拆”方案。

该方案包括循环智能同意月之暗面单独成立公司,杨植麟带领20人团队去月之暗面新公司,循环智能无偿获得月之暗面的9.5%股权,豁免杨植麟及张宇韬在循环智能的全职义务等,杨植麟放弃在循环智能持有的一半股权。注意:这次分拆方案只是口头达成一致,并未通过董事会形成书面文件。

· 2023年4月17日,月之暗面公司成立,杨植麟等人为创始人,汪箴(张予彤老公)显名持有月之暗面少量股权。

· 2023年6月,红杉和真格基金等循环智能老股东投资月之暗面,但金沙江创投等投资机构因不看好大模型发展,放弃投资月之暗面。

· 2024年1月,循环智能就通过月之暗面成立新公司一事作出书面董事会决议,循环智能9名董事(包含张予彤)均签字同意,但根据朱啸虎后期表达,该决议并未取得所有股东书面同意。

· 2024年2月至5月,阿里巴巴及腾讯、美团等机构先后投资月之暗面,月之暗面估值达30亿美金。月之暗面的股东结构里可以看到张予彤迄今为止的所有的个人资源(除了金沙江),阿里巴巴、趣加科技、小红书。

· 2024年4月,张予彤被报道从金沙江创投辞职,事后表明,是被金沙江创投开除。当月,朱啸虎发现张予彤持有月之暗面900万创始股,约占16%。持股的起始时间点并未确认。

· 2024年11月11日,金沙江创投联合多家循环投资的老股东,在香港对月之暗面杨植麟及联合创始人兼CTO张宇韬提起仲裁,认为月之暗面从循环智能分拆损害了循环智能及其股东利益,要求补偿近1亿美元金额。

· 2024年12月5日,朱啸虎连发两条朋友圈,并接受多家媒体报道,称愿意豁免杨植麟及月之暗面,但矛头直指张予彤“隐瞒利益冲突”,违反董事对公司的信义义务,基金管理人对LP投资人的受托责任。

· 2024年12月6日,杨植麟发文,承认张予彤为月之暗面联合创始人,认为张予彤加入月之暗面与其他投资机构放弃投资月之暗面、月之暗面从循环智能分拆并获得授权手续为相互独立的事件。

· 2024年12月15日,月暗若拿不到循环老股东的豁免或被起诉,月暗股东将要求月暗降低估值10%。

(作者|陶天宇,编辑|李程程)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

银行数字化抢蛋糕比赛,胜负已分?

2025-12-08 19:21:07

2025年,中国银行业数字化转型驶入“深水区”,数字招标市场呈现“规模扩容、技术升级、竞争加剧”三大特征。IDC数据显示,2024年中国银行业IT投资规模已达1693.15亿元,同比增长3.6%,预计2028年将突破2662亿元,数字化投入正从零散采购转向系统性布局。

即使时近年底,银行业数字化建设招标也在如火如荼进行中,例如建设银行湖北省分行推进的软件开发及技术服务采购,年度招标控制价达2250万元;中信银行聚焦全面风险智慧管理系统二期实施服务,明确实施工作量不少于227人/月、周期9—11个月,高级工程师及以上人员工作量占比不低于35%,且投标人须具备2020年至今大中型银行总行风险管理类项目实施服务案例……

为此,巴伦中文网就2025年前11个月各类银行业数字化建设招标特点、数字化建设招标项目类型以及投标者优劣势进行归纳分析,可以看出银行的数字化成功,不仅仅取决于投入规模,更重要的是精准匹配自身定位,在关键赛道上选择“最对”而非“最贵”的路径与伙伴。

银行业数字化“马拉松”:大行稳跑、股份行加速、中小行巧奔

2025年银行业数字化投入呈现“大行领跑、股份行追赶、中小行精准发力”的格局,资金实力、业务规模和监管要求共同决定了各类型银行的投入策略。

根据最新科智咨询数据显示,2024年银行业信息化投入中,6家国有大型商业银行2024年金融科技投入共计1254.59亿元,大型商业银行占比52%,股份制银行占比30.9%,两者合计占据82.9%的市场份额,中小银行投入虽体量有限,但增速显著。根据最新市场预测,2025年银行业金融科技投入预计将达到‌3338.5亿元,较2024年2412.7亿元增加了38%‌。

1

从数据上看,工、农、中、建四大行年科技投入均超200亿元,科技员工总数突破11万人次,较上年增长17%,可以称之为“土豪级”投入。投入不再局限于单一系统,而是覆盖顶层设计、技术平台、业务应用全链条。

例如国家开发银行一口气推出3.939亿元软件开发服务项目和2668万元数字金融规划项目,前者采用三年期框架协议,要求供应商具备21家全国性银行总行项目经验;交通银行湖北省分行的软件开发及技术服务采购,年度招标控制价达2250万元,要求供应商自2022年7月以来有200万元及以上金融机构科技研发业绩,体现了对供应商资质的高要求。可以看出国有大行的招标投入更注重稳定性和长远价值,兼具信创改造、智能风控、监管合规三大核心方向。

招行、兴业等股份行以“科技投入换效益”,市场化机制灵活、创新力强,倾向于选择聚焦核心场景例如招行凭借高额科技投入实现“最高投入+最优不良率”的双重优势,印证了数字化对风控的提升作用;中信银行通过数字化生态建设,让客户经理人均服务客户数提升3倍,投入产出比显著。

中信银行的全面风险智慧管理系统二期项目,明确高级工程师及以上人员工作量占比不低于35%,且投标人须具备大中型银行总行风险管理类项目经验,可以看出股份行更加聚焦零售金融、财富管理等优势领域,通过快速部署新业务系统、开发金融新产品抢占市场份额,科技投入的市场化导向明显。

城商行的投入呈现梯队分化,上海银行以25.19亿元高居城商行科技投入榜首,而部分小型城商行投入不足2亿元。珠海华润银行、北部湾银行等则以高占比彰显重视度,科技投入占营收比均超过6%。这类银行的投入重点围绕地方经济,服务本地中小企业和居民,区域性风控系统、本地化服务流程优化、手机银行升级成为主要方向,避免与大行正面竞争。

城商行招标项目预算多集中在数百万元级别,目的在于重点解决区域业务痛点。例如桂林银行300万元采购资产负债管理系统,聚焦中小企业服务与地方监管合规,其通过智能化手段优化资金头寸管理,间接提升小微企业贷款审批效率;贵州银行近日发布数据处理服务采购项目(AI换脸欺诈识别)供应商征集公告,拟引入AI换脸欺诈识别数据,作为传统人脸识别技术的补充。

农商行看起来像是“抱团取暖”,资金实力有限导致单独投入能力不足,多通过联合采购、共建实验室降低成本。浙江农商联合银行选择工银科技制定“十五五”规划,体现了对外部专业能力的依赖。在乡村振兴战略推动下,农商行加速普惠系统、信贷登记系统建设,重点解决农村金融服务“最后一公里”问题,投入虽规模不大但针对性极强。

民营银行虽面临IT预算相对紧张的压力,但民营银行聚焦AI核心场景,走“小而精”路线。网商银行、微众银行依托股东生态资源,在智能信贷、数字人客服等领域持续发力,通过轻量化AI工具提升服务效率,避免大规模基础设施投入。

民营银行较其他银行更注重在金融科技方面的投入,公开数据显示,网商银行2024年科技投入占比高达36%;微众银行研发费用占营业收入比例达到7.72%;苏商银行研发费用占比保持在6%左右。相比之下,大行和股份行的科技投入占营收比重大多维持在3%~5%区间。

银行科技“军备竞赛”升级:四大赛道,差异布局 

2025年银行数字招标集中在四大赛道,不同赛道的技术门槛、可复制性差异显著,也为银行预算分配提供了明确指引。经过巴伦中文网总结,2025年银行数字招标主要分为四大赛道,并根据市场对相应的技术难度进行打分(难度总分为5分,主要从从技术壁垒、落地风险、投入成本三个角度出发进行评价)。

一是风险管理赛道,评分为4分。这一赛道需结合金融业务逻辑与AI技术,要求供应商既懂风控规则又具备模型开发能力。典型的案例是建信金科中标徽商银行项目,击败天阳宏业、安硕信息等专业厂商,核心优势在于对信贷全流程风险点的深刻理解。该赛道方案对于中标机构的技术要求较高,但后期银行可以根据客群结构、风险偏好调整模型参数,因此在具有一定技术基础后可复制难度中等。

二是合规控制赛道,评分为3分。受监管政策驱动性强,2025年10月以来全行业超30个“一表通”项目落地。技术核心是数据标准化与系统对接,中信银行、盛京银行等项目均围绕监管数据整合展开。该赛道核心需求是“满足监管数据格式要求、实现与监管系统”,无复杂算法,因此方案可复制性高,标准化程度高,预算普遍在百万元级别。

三是数据服务赛道,评分为3分。这一赛道的重点在于数据质量与业务适配性,工银科技中标农发行1699万元外部数据采购项目,凭借的是数据与信贷审批、风险监控系统的无缝衔接能力;业务应用赛道则聚焦场景落地,兴业银行智慧破产清算系统实现账户管理、资金划拨线上化,解决了传统清算流程繁琐的痛点。这一赛道技术聚焦“数据质量管控+场景流程线上化”,更多是需要根据银行具体业务场景进行调整并适配于银行现有系统,一旦成功接入后,数据服务仅需定期更新数据源,业务应用无频繁迭代需求,项目预算普遍在百万元级别,“工银科技中标农发行1699万元”的案例属于特例,整体实操难度较低。

四是技术平台与业务应用赛道评分为5分。其涵盖的核心是系统维保、信创架构改造、跨机构协同等复杂需求,技术栈最复杂,需“底层架构能力+高可用保障”。例如上海票据交易所多个项目选择工银科技单一来源采购,核心原因是其提供的小型机、生产机房及核心组件能独家满足系统运行要求。这类项目技术专业性强、定制化程度高,可复制性低,对供应商的技术积累和服务能力要求极高,项目预算普遍也达超千万元级别。

因此在银行有限预算下,可以为以上四类赛道进行建设优先级排序。最先应该进行金融科技投资的是风险管理与合规控制,这类项目直接关系银行合规经营与风险损失,ROI见效快。其次是运营管理与流程优化,这一建设聚焦RPA、智能审核等轻量化应用,投入门槛低、见效快。第三是技术平台建设,这属于中长期投入,奠定数字化基础,包括云原生架构、数据中台等,虽短期收益不明显,但能支撑后续业务创新,建设更需要采用“分步建设”模式,避免一次性大额投入,并且在建设中根据银行的差异化需求调整建设方向。最后是业务应用与客户服务,例如城商行、农商行更多会聚焦本地场景,如宁波银行“鲲鹏司库”聚焦企业资金管理,民营银行侧重轻量化客服工具,控制投入成本等。

银行数字化的甜蜜抉择:“亲生”的稳妥还是“外援”的强悍?

巴伦中文网对比了2025年银行数字中标公司发现市场形成“双雄争霸”格局,银行科技子公司凭借业务理解与合规优势占据垂直场景,互联网科技公司依托通用技术与创新能力领跑通用平台,双方各有优劣,竞争焦点集中在技术与业务的融合能力。

2

在2025年成功招标的银行科技子公司中,工银科技表现尤为亮眼,中标农发行、上海票据交易所、浙江农商联合银行等多个高价值项目,其主要核心竞争力体现在三大方面:

一是业务与技术双基因融合。依托工商银行的金融资源,工银科技团队中既有深耕银行业务多年的专家,又有技术研发人才,能快速将业务需求转化为技术方案。中标浙江农商联合银行“十五五”规划项目时,其结合农村金融特色制定的数字化方案,既符合行业趋势又贴合区域需求,形成差异化优势。在上海票据交易所项目中,其提供的小型机、生产机房及核心组件能独家满足系统运行要求,核心原因是对金融基础设施业务逻辑和技术标准的深度掌握。

二是跨领域服务能力突破。工银科技破银行科技子公司“服务母行”的局限,成功切入三大核心领域:一是银行同业市场,服务农发行、浙江农商联合银行等“友商”;二是金融基础设施,拿下上海票据交易所、中央结算公司等关键机构项目,成为金融核心系统服务商;三是政府政务领域,中标宁夏政务金融协同系统运维项目,实现“金融+政务”跨界服务。这种跨领域布局不仅扩大了市场空间,更积累了多元场景经验,形成差异化竞争壁垒。

三是全生命周期服务体系。工银科技能提供从顶层设计到系统建设,再到长期运维的全链条服务,其7×24小时技术响应机制,让系统故障平均修复时间缩短至45分钟,运维效率较行业平均水平提升35%。在农发行续约采购项目中,凭借前期服务积累的良好口碑和数据质量保障,成功续约,体现了长期服务能力的价值。

2025年成功招标的互联网科技公司则有不少,其凭借通用技术领先性、场景落地效率、性价比等优势在AI大模型、云原生架构、研发效能等赛道表现突出,与银行系科技子公司形成“垂直深耕VS通用赋能”的互补格局,互联网科技公司的核心竞争力体现在四大方面:

一是通用技术栈领先,能够以底层创新构建技术壁垒。头部互联网科技公司已构建“基础设施-大模型-行业工具”的完整技术体系,能提供端到端解决方案。例如腾讯云的金融级分布式数据库TDSQL,支撑微众银行日十亿级交易量且0故障运营,相比传统数据库节约50%以上成本。技术迭代速度远超行业平均水平,产品迭代周期普遍为1-2周,如阿里云通义灵码每月更新2-3次功能,可根据工行研发反馈实时优化代码规范适配能力。

二是成本控制精准,能以高性价比平衡投入产出。互联网科技公司依托规模化运营与技术复用能力,在保障服务质量的前提下实现成本优化,精准击中银行(尤其是中小银行)“降本增效”的核心诉求。通过内部业务与外部客户的资源共享,互联网科技公司能够大幅降低技术服务定价,例如火山引擎因与字节跳动国内业务并池,AI算力服务同款配置价格较行业低20%-30%,且无需银行承担额外的模型训练硬件投入,并更多能以“功能覆盖度×服务质量”的综合价值取胜。

三是场景适配的灵活性,以跨行业经验破解银行痛点。互联网科技公司将电商、出行、游戏等领域的成熟技术与经验迁移至金融场景,形成“技术复用+场景定制”的独特能力,避免了“为技术而技术”的落地困境。跨行业技术经验的金融化改造将非金融场景的技术能力转化为银行可用的解决方案,例如腾讯云把游戏行业的“跨域流量调度”技术改造后用于微众银行,将公网平均时延从100ms缩短至20ms,保障纯线上业务的稳定运营。此外,互联网科技公司可以作为“旁观者”针对国有大行、城商行、民营银行的特点提供定制方案。

四是生态协同强大,以资源整合创造附加价值。互联网科技公司依托自身生态资源,为银行提供“技术+数据+场景”的一体化服务,突破了传统供应商“单一技术输出”的局限,既能实现内部生态资源的协同赋能,将集团内的流量、数据、场景资源与银行需求对接,又能实现外部生态的开放联动能力,通过整合第三方资源为银行构建数字化生态。

从2025年数字招标项目看,在银行科技子公司或互联网科技公司中进行选择已经很难通过纯技术的比拼分胜负,反而是“银行科技子公司+互联网科技公司”的协同模式正在逐渐兴起。银行科技子公司提供业务场景理解与合规保障的同时,互联网科技公司输出通用大模型与算力支持,这种搭配打法实现适配金融场景的解决方案。

例如建信金科与阿里云的智能研发效能提升项目:当建设银行研发团队面临“代码生成效率低、测试覆盖率不足”的问题时,需引入AI编程工具,但直接采购通用工具难以适配金融级代码规范,建信金科作为建行科技子公司,牵头招标并选择与阿里云协同落地。最终建行研发团队代码生成采纳率超30%,单测用例覆盖率从45%提升至72%,核心系统迭代周期从4周缩短2.5周。该方案后续还被建信金科复用至其他中小银行客户,成为其对外技术输出的核心产品之一。

在这种模式下,互联网科技公司发挥“规模化工具研发”优势,银行科技子公司注入“金融场景Know-How”,实现“通用技术工具+金融定制化”的低成本复用。这种模式既弥补了银行科技子公司的技术短板,又解决了互联网公司的业务适配难题,已成为2025年银行数字化招标中大型复杂项目的主流合作选择。未来,随着AI大模型、信创等技术的深化,双方协同将从“项目级合作”走向“生态级共建”,进一步重塑银行业数字化转型的技术路径。

总体来看,市场对于2026年银行金融科技投资以及数字化建设招标的的预测可以归纳为以下三点:一是投入分化加剧。大行将持续加码体系化建设,中小行聚焦“小而美”的刚需场景,民营银行依赖轻量化AI工具降低成本,投入不再“一刀切”。二是技术聚焦实用。大模型、信创等技术不再是“噱头”,而是与业务深度绑定,能解决合规痛点、降低风险损失、提升运营效率的项目,成为招标热门。三是竞争格局多元。银行科技子公司与互联网科技公司各占优势,协同合作成为主流,银行选择供应商时,更看重“技术适配性+业务理解度+合规保障力”的综合实力。

对银行而言,数字化招标的核心不是“选最贵的”,而是“选最对的”,核心业务系统优先选择银行科技子公司,通用技术平台可考虑互联网科技公司,复杂项目可采用协同模式。对供应商而言,深耕垂直场景、提升综合服务能力,是在激烈竞争中脱颖而出的关键。(作者|李婧滢,编辑|刘洋雪)

更多对全球市场、跨国公司和中国经济的深度分析与独家洞察,欢迎访问 Barron's巴伦中文网官方网站

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

第二十五届中国股权投资大会圆满落幕, 领航行业向新而行

2025-12-08 18:57:28

2025年12月2日至5日,由清科控股(01945.HK)、投资界主办,汇通金控、南山战新投联合主办的第二十五届中国股权投资年度大会在深圳成功举行。本届大会以“向未来,赋新生”为主题,不仅全面升级为“清科·南山创投周”,更全程创新性地融入AI科技元素,以科技感十足的呈现形式吸引了全场嘉宾的高度关注。大会携手行业头部投资机构、产业领 袖与科技创新者,为行业发展把脉、为未来篇章布局。

当前,股权投资市场正呈现积极态势,募资结构更趋多元,投资方向加速聚焦硬科技和战略性新兴产业。在行业格局加速重塑的关键阶段,本届大会通过多维论坛、主题峰会与系列交流活动,搭建起趋势洞察、思想碰撞、资源对接的全景舞台,为推动创投行业高质量发展、服务国家创新驱动发展战略注入强劲新动能。

亮点一:解码行业态势,锚定未来机遇

12月3日上午,大会正式启幕。清科集团创始人、董事长,清科控股董事长兼CEO倪正东作为主办方发表致辞,他回顾了中国创投行业25年的发展历程,并表示:“二十余年来,资金加速向硬科技转移,超七成的资金流向硬科技企业;同时,外资基金投资活跃度下降,目前市场上65%资金由国资基金管理人管理,国资已是市场主力。未来,在更多的科创领域,如AI、创新药、核聚变等,还蕴藏了大量的潜能和财富,所以我们相信创投行业将继续大有可为”。

前海方舟资产管理有限公司董事长、前海母基金首席执行合伙人靳海涛从全球视角解析创投战略价值,他表示:“在创投的支持和推动下,中国的科技产业正在经历从学跑、到跟跑、再到并跑,乃至未来或者在目前这个阶段已经有一些产业领跑的历史性进程,取得了一系列非常瞩目的成就”。

亮点二:双战队巅 峰对话,思辨破局之道

面对股权投资行业高质量发展、存量优化的新阶段,头部机构的差异化应对策略成为行业关注焦点。本届大会特设核心影响力对话环节,由倪正东对话北极光创投邓锋、纪源资本符绩勋、君联资本李家庆、达晨财智刘昼、红杉中国周逵等12位重磅嘉宾。嘉宾分为聚焦前沿科技、押注颠覆性创新的“探索突击队”与深耕实体产业、把握结构性机会的“价值耕耘队”两大阵营。嘉宾围绕投资过程中风口与泡沫、时间与耐心、风险与确定性等话题展开思辨,双方观点相互补充、激荡共鸣,为行业提供了多元视角的解题思路。

亮点三:多元议题交锋,洞察投资新机

随着市场进入精耕细作新阶段,行业竞争正转向价值深耕。“创·投趋势论坛”构建多维议题矩阵,全方位拆解投资底层逻辑。毅达资本董事长应文禄以“GP的灵魂拷问:是随波逐流,还是回归市场化初心?”开篇立论;汇丰中国副行长唐臻怡聚焦国际金融机构对科创的赋能价值展开分享。论坛设置五大核心圆桌讨论,分别围绕“周期博弈,向内生长”“错失与重仓,赛道选择得失谈”“退出攻坚战”“早期投资的时间复利”“CVC,产业赋能的崛起与挑战”等行业痛点展开。海松资本马东军、元禾原点费建江、东证资本徐成等资深投资人担任主持,汇聚弘毅投资曹永刚、渶策资本甘剑平、汇通金控莫剑波等百余位嘉宾,形成覆盖募投管退全链条的智慧共鸣。此外,东方富海陈玮、基石资本张维等嘉宾还在4日上午的环节中,就投资趋势、AI时代机遇等主题补充分享,进一步丰富论坛内涵。

围绕“周期博弈,向内生长”这一话题,丰年资本合伙人赵丰分享道:“现在每年IPO企业的数量不多,但堰塞湖消失了。堰塞湖的消失是进入上行周期的一个典型信号,大家对于后续资本市场的周期还是要有一定的信心。”渶策资本创始合伙人甘剑平表示:“在底部复苏的周期中,每个投资人都要考虑一个问题:是选择进入到一二级市场都热烈追捧的行业,还是去寻找一些非共识的、还没有那么火热的行业,从而争取在估值相对比较便宜的阶段去重仓一些项目,这是我每天思考的一个问题”。

亮点四:破解退出难题,探索多元路径

退出作为行业核心难题,在“退出攻坚战”圆桌讨论中得到集中破解。元禾厚望创始管理合伙人曾之杰围绕“退出攻坚战”这一话题分享道:“退出是整个行业的难题,单靠一只基金的努力是不够的。前提是资本市场保持活跃、健康、良好,大河有水,小河才能受益。”2025年并购市场表现活跃,德弘资本董事总经理王玮分享道:“关于并购投资的风险控制,核心就是两件事:第 一,控制好合理估值,否则投后价值创造会被抹平;第二,保持良好的现金流支撑杠杆和分红,保证股权价值不被侵蚀”。

而在“从‘大航海’到‘新大陆’:中国出海的范式革命”圆桌论坛中,优山投资陈十游主持对话,ATM Capital创始人屈田等嘉宾围绕出海战略选择、风险控制等话题展开热议,屈田强调:“出海最 大的风险是战略方向的偏差。去发达国家和新兴市场也是两个完全不同的选择,不一定哪个选择是正确的,关键是适合。孙子兵法讲先胜后战,应该详细调研,有胜算再出海,否则就不要出海”,为机构海外退出与布局提供新思路。

亮点五:专场峰会聚焦,前沿赛道竞速

AI峰会、创新药与生命科技峰会,成为前沿赛道的深度研讨阵地。邀请头部机构投资人与细分领域标杆被投企业同场进行圆桌派对话,围绕技术迭代、市场拓展、产业链协同等产业深耕话题展开思想共创。

随着人工智能从实验室走向产业化,投资逻辑正从模型竞赛转向应用落地。AI峰会以“具身智能”为核心主线,分别聚焦AI落地物理世界、具身智能与AI硬件的中国机遇、具身智能大脑的范式突破等议题。峰瑞资本创始合伙人李丰分享道:“从投资的角度看这一轮机器人热潮,有一个简单却容易被忽视的道理:一个方向的意义越重大,它所经历的泡沫和低潮的次数往往就越多”。

创新药与生命科技峰会同样干货满满,华盖资本创始合伙人、董事长许小林展望十年投资主题:“首先是投资基于中国科研院所、药企0到1的原始创新。其次是创新药投资的募投管退已经跑通,大胆投没有收入、没有利润,但真正有创新的企业。第三是AI+医疗会实现更多落地。第四是未来中国的MNC可能成为全球创新药的重要买方。”随后,嘉宾围绕AI驱动与模型革新、创新医疗器械的新航海时代、CXO和VC的协同共赢等话题深入探讨研发范式创新、产业生态构建等核心议题。

大会同期举办的“2025VENTURE50颁奖典礼”上,揭晓了风云榜、新芽榜,以及人工智能、硬科技、生命科技三大行业50强,为资本指明了未来的投资方向与价值标的。其中入选企业中,人工智能企业占比达49%,具身智能、生成式AI及“AI+垂直场景”成为资本关注焦点,与大会产业深耕及科技赋能主题形成深度呼应。

亮点六:搭建交流平台,促进深度对接

大会充分发挥生态聚合优势,搭建多维度精准对接场景。精心设计多元配套环节,与核心论坛形成互补。“X-Day”西丽湖路演社Kickstarter科技创新全球化专场,为科创项目提供展示与融资对接平台;落地深圳南山期间,“南山科创投资伙伴计划”启动及“早期投资赋能校地成果转化”签约,彰显区域生态融合升级。投资界奇妙夜、CEO早餐会等定向活动,为嘉宾搭建深度沟通桥梁。

大会全天候“创·投嘉年华”、“创·投Talk”搭建轻量化交流场景;投资界羽毛球友谊赛等特色活动拉近行业同仁距离。现场20余个前沿科创企业及INNO100全球创新旗舰店展位中,具身智能机器人、重型运载火箭、AI玩具等创新产品吸引嘉宾驻足体验,数字主持人与展品的互动展示更成为现场打卡亮点,营造出“有深度、有温度”的行业交流氛围。投资界羽毛球友谊赛的举办为本次大会画上圆满句号。

为期4天的第二十五届中国股权投资年度大会在热烈交流与行业共识中圆满收官,大会既凝聚了行业发展共识,搭建了资源精准对接的生态平台,更共同见证了创投力量在推动产业升级和经济高质量发展中的重要作用。面向未来,大会将继续携手行业伙伴,为每一份创新注入持续向上的力量。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App