2026-04-03 08:08:02
这里记录每周值得分享的科技内容,周五发布。
本杂志开源,欢迎投稿。另有《谁在招人》服务,发布程序员招聘信息。合作请邮件联系([email protected])。

上海某餐厅的墙壁装饰。(via monana3838@Threads)
我越来越觉得,AI 跟其他技术不一样,不仅带来技术变革,还会带来社会变革。
简单说,AI 会带来贫富分化。
其他技术实际上会消灭贫富分化,实现"消费者平等",即穷人和富人消费的东西是一样的。
比如,大家喝一样的可口可乐,用一样的苹果手机,开一样的特斯拉。甚至互联网也是如此,世界首富马斯克和你用一样的网站、一样的手机 App。
但是,AI 模型不是这样。在大模型面前,穷人和富人是不平等的。
在未来,普通人肯定用不起顶级的大模型。其实,现在就是如此了,最贵的 AI 编程套餐是 Claude Code 的 Max 套餐,月费200美元,很多人已经用不起了。
OpenAI 曾经设想过月费2万美元的套餐,提供最顶级、无限量的大模型服务。

要是真的推出,只有富豪才用得起。
这反映了一个简单的事实:费用越贵,模型效果越好。因为模型的效果与算力相关,更多的算力、更大的上下文、更多的参数,都需要钱。
这跟工业品完全相反。工业品有规模效应,产量越高,单位成本越低。一旦大规模生产,价格就会越来越便宜。
但是,大模型不存在规模效应,模型的大规模生产需要更多的服务器,这并不会让单位成本降低,反而可能因为扩建机房,改造电路和水路,而变得更贵。
未来社会大概是这样的:富人和穷人用不同的模型。最顶级模型的服务----规划、咨询、生成内容、自动化......----需要支付高昂的使用费,而普通人就使用免费模型,效果当然也很普通。
不过,我也看到马斯克最近说,未来还有另一种可能。

他的意思是,算力本质上是能源转化的一种形式。人类最终会实现廉价能源的大量供应(空间太阳能?),所以算力将变得足够便宜,所有人都将用最好的模型。
可能吗?我不知道,感觉还是前一种情况更现实。
怎么衡量大模型的能力?
现在的方法是使用一个测试集,去计算大模型的分数。它的缺点是,只能用于横向比较,很难衡量进步速度。
最近,一篇论文提出了一种新的衡量方法。
科学家首先计算,人类完成某一项任务需要多少时间。比如,计算 4 + 5 + 7,人类需要2秒,而计算 37 * 52 * 19,可能需要1分钟。
然后,测试大模型能否以50%的成功率完成这项任务。
研究发现,GPT-2 以50%成功率能够完成的任务,时间范围是两秒;Claude 3.7 Sonnet 是50分钟;O3 接近两小时;Opus 4.6 约为12小时。
也就是说,人类需要12小时才能完成的任务,Opus 4.6 的成功概率是50%。

结果就是上图,可以发现,大模型的进化速度在对数坐标下是一根直线。
每7个月,大模型能够以50%成功率完成的任务,时间范围扩大一倍。按照这个趋势,大模型将在2027年至2031年间,以50%的成功率完成人类专家需要一个月才能完成的任务。
如果这篇论文正确,就意味着年底发布的模型,将比年初强一倍。
1、用户协议的彩蛋
软件服务的用户协议,又长又难懂,很少有用户阅读,但是里面有很多重要内容。
一家美国通信运营商,为了表示自己很重视用户权益,鼓励大家阅读《用户协议》,并偷偷在里面加入了一个彩蛋。

上图高亮的句子写道:"如果你读到这句话,请发邮件到我们的信箱,赢取免费的瑞士旅游。"
上线二周后,才有人发邮件,询问这事是否真实。由于只有一个人来信,所以她就免费去瑞士了。
从这件事可以看出,即使有彩蛋,也没人阅读《用户协议》。我现在的做法是让大模型帮忙,询问"这份协议有哪些对用户不利的地方",很快就得到了答案。
2、触摸屏指甲油
广泛使用的电容式触摸屏,有一个问题,就是戴手套使用会失灵。
原因是它要求触摸物(比如手指)必须导电,这样屏幕才会产生电场扰动,从而确定触摸的位置。

解决方法也很简单,就是在手套指尖涂一层指甲油,指甲油里面的金属碎屑可以导电。
美国的一名化学系本科生,在学习化妆品化学时,发明了一种改进型的透明指甲油,专门用于戴手套使用触摸屏。
这种指甲油是透明的,涂在手套上看不见,也可以涂在裸甲上,当作抛光剂。
Copilot 是 GitHub 推出的 AI 助手,上周有用户发现,它会自动插入广告。

上图是 Copilot 自动提交的一个 Pull Request,它在提交说明的结尾(红框处)加入了一个广告,介绍应用程序 Raycast。
在 GitHub 搜索一下,就会发现已经有超过11,400个 PR 都包含了相同的广告词。
经过用户抗议,GitHub 暂止停止了这个功能。但这是一个危险的信号,表示 GitHub 想利用用户增加收入。
1、小米 MiMo v2 Pro 评测(英文)

小米发布了 MiMo V2 系列大模型,本文是国外媒体的评测,给出了很高的评价。
2、我用 AI 生成了一个 JavaScript 引擎(英文)

作者用六周时间,生成了一个100%通过 test262 测试集的 JavaScript 引擎,涵盖所有98,426个场景。本文是对这件事的介绍。
3、解剖 .claude/ 目录(英文)

Claude Code 会生成 .claude/ 子目录,所有 AI 处理的底层数据都放在里面,本文研究这个目录到底有什么。
4、一致性哈希介绍(英文)

一致性哈希(Consistent hashing)是一种缓存定位算法,在增加或减少缓存服务器的情况下,可以不改变缓存所在的原始位置。
5、 笔记本如何用作单板计算机的 HDMI 显示器(英文)

作者使用一张 HDMI 转 USB 采集卡,将笔记本电脑用作树莓派的显示器。
1、EmDash

AI 生成的 WordPress 复刻,基于 TypeScript 语言,支持插件,据说功能基本一样,参见介绍文章。

基于 Cloudflare Workers 的订阅管理系统,可以发送各种订阅的到期通知,通过 Telegram、Webhook 等通知渠道。(@wangwangit 投稿)

开源的微信机器人消息管理平台,自带应用市场,通过点击安装应用,给微信 Bot 加功能。(@xixihhhh 投稿)
另有一个类似项目 wxWebHook,通过 WebHook 向微信用户发消息。(@aristorechina 投稿)


获取 VSCode 插件、Chrome 扩展和 Docker 镜像的离线安装包的工具,代码开源。(@LiaoGuoYin 投稿)

浏览器端的批量文件重命名工具,支持各种规则设定,代码开源。(@chenz24 投稿)

开源的字幕字体子集化工具,将所需的字体字形嵌入字幕文件。(@Yuri-NagaSaki 投稿)

基于 Pretext(文字排版计算库)的一个小应用,将摄像头捕捉的人体轮廓通过文字排版实时展示。(@fifteen42 投稿)

基于 Rust 语言的跨平台 SSH 终端,功能较多,使用 Tauri 桌面框架。(@AnalyseDeCircuit 投稿)
9、wtree

git worktree 的图形化管理界面。(@FatDoge 投稿)

基于 Claude Code 源码实现的 claude-agent-sdk 的开源替代品,用于 AI Agent 的开发,完全兼容原始接口,不依赖本地 cli 进程。(@idoubi 投稿)

统一管理本地所有 AI 智能体的 Web 控制台,支持多工作区隔离、飞书远程协同、Skills 生态等。(@Mr-ZhangBo 投稿)
3、ArcReel

开源的 AI 视频生成工作台,输入一本小说,自动完成剧本、人物设计、分镜、短视频生成。(@Pollo3470 投稿)

开源桌面应用,所有终端铺在无限画布上,方便管理 AI 编程工具。(@blueberrycongee 投稿)
另有一个类似项目 OpenCove。(@DeadWaveWave 投稿)


Claude Code 的互动式教程,通过11个小练习,掌握这个 AI 编程工具。

根据 Claude Code 泄漏的源码,一步步图解演示,输入提示词后软件内部如何处理。
3、机器学习入门教程

工程师的机器学习教程,解释基本概念。
1、欧洲年度树木
欧洲有一个"欧洲年度树木"的评选,初听觉得很奇怪,但仔细一想,就会发现这个活动有很多好处:提高城市知名度,促进生态保护,推动旅游业......
国内下面就是今年的"欧洲年度树木"。
立陶宛鲁凯村的橡树,树龄400年。

以下是其他入围决赛的树木。
斯洛伐克的野生苹果树

波兰的榆树

拉脱维亚的菩提树

葡萄牙的柏树

我花在 AI 编程的时间越多,对自己的职业生涯的担忧就越少,即使 AI 的编程能力越来越强。
因为,我发现 AI 编程只是流程的一部分,我的工作不仅仅是编写代码。
我的真正工作是,找出可以用代码解决的问题,然后解决它们,并验证解决方案是否有效。
AI 最终或许能够完全承担中间的编码部分,并帮助解决第一部分和最后一部分,但无论如何,仍然需要有人去发现问题、定义问题并确认问题已经得到解决。
这就是我的工作的80%内容。
摩尔定律指的是,大约每两年,芯片上的晶体管数量就会翻一番。
但是,它还有一个伴生效应,很少人提到。那就是,大约每五年,芯片工厂的建造成本就会翻一番,而能承担这种成本的芯片公司数量则会减半。
二十五年前,大约有40家公司,可以建造芯片工厂,每个工厂的建造成本约为20亿至40亿美元。如今,只剩下两家或三家芯片公司(数量取决于你对英特尔的乐观程度),可以建造最先进的芯片工厂,建造成本飙升到几百亿美元。
如果按照这种趋势再过10年,芯片工厂的建设成本继续翻倍飙升,也许只有一家公司或根本没有公司,能够负担这样的成本。
目前,芯片的制造工艺已经逼近1纳米,再往下发展,技术壁垒和资金壁垒将同时接近极限。
我预计,摩尔定律很快就会失效,未来增长主要在于算力,而不是单块芯片的计算能力。
未来的芯片将会像二手车,行驶速度都差不多,只是新旧差异。我甚至觉得,2035年生产的芯片和2065年生产的芯片之间,将几乎没有什么实质性区别。
1、
源代码的 map 文件不小心发布到 npm,这种错误听起来似乎不可能,但当你意识到很大一部分代码库很可能是由你正在发布的 AI 编写的,一切就容易理解了。
-- 网友评论 Claude Code 源码泄漏事件
2、
人工智能的蓬勃发展,使得某些办公室工作的需求可能并不大,而将创造大量电工、焊工和水管工的工作岗位。
以前,我们告诉所有年轻人去上大学,从事银行业、媒体或法律行业,现在需要平衡一下,有些人或许更适合做体力劳动者,在水暖工和电工这些领域,职业生涯同样可以很成功。
-- 拉里·芬克,美国金融巨头贝莱德集团的老板
3、
写作的目的不在于写完,而在于增进你自己的理解,进而增进周围人的理解。
让 AI 为你写作,就像花钱请人为你健身一样。
-- 《别让 AI 替你写作》
4、
程序员的工作不是编程,而是通过抽象,来管理软件的复杂性。如果你做到了这一点,那么编程就很容易了。
-- 《你的工作不是编程》
制造业正在"零工化"(#344)
崖门海战的感想(#294)
大数据已死(#244)
悲观者正确,乐观者成功(#194)
(完)
2026-03-27 05:49:12
这里记录每周值得分享的科技内容,周五发布。
本杂志开源,欢迎投稿。另有《谁在招人》服务,发布程序员招聘信息。合作请邮件联系([email protected])。

山东日照某住宅小区的彩色风雨连廊,入口处树林还设了咖啡馆。(via)
如果现在做一个问卷调查,问大家"你觉得大模型是否具有智能?"
我相信,大多数人会是肯定的回答。
哪怕现在只是 AI 的初级阶段,大模型已经能够替代很多的人类智力劳动,确实非常神奇。
但是,我们不要忘记真实情况,大模型不是魔法,更不是具有自主智能的"硅基智能体",而是基于统计规律的语言模型,它的一切行为都基于数学计算。
最好的证据就是,如果让它解决没有训练过的题目,也就是不存在统计规律的话,它根本解不出来。
这就是我今天想分享的一个实验。

两位国外的研究者找了五个主流的大模型:GPT-5.2、O4-mini、Gemini 3 Pro、Qwen3-235B、Kimi K2。
他们让大模型使用五种小众的编程语言----Brainfuck、Befunge-98、Whitespace、Unlambda 和 Shakespeare----来编程解决各种问题。
这些小众语言的共同特征是,网上很少有它们的资料,因此不能用来训练大模型。大家猜猜看,结果怎么样?
实验结果用一句话总结,就是大模型的表现一塌糊涂。
这五个大模型的平均答题正确率仅为3.8%,即100道题可以答对3.8道。相比之下,它们处理 Python 问题的正确率可以达到90%。
更尴尬的是,仅有的那几道答对的题目,都是入门级。更难的级别(初级、中级、高级),所有五个大模型的正确率都为0。
这个实验充分说明了,大模型的表现(智能程度)首先由训练材料决定:训练的语料越多,表现越好,比如 Python 的语料遍地都是,大模型因此极其擅长解决 Python 问题;训练的语料越少,大模型表现就越差,简直跟智障一样,没什么用处。
那么,一个让人好奇的问题就来了:如果某种冷门语言没有语料,但有一本很详尽的《使用手册》,我们让大模型学习这本手册,它是否就能学会这种冷门语言编程呢?
本周,微软公司发布了自家的图像生成模型 MAI-Image-2。
这个模型生成的图像质量非常高,有评论认为,目前仅次于谷歌的 nano-banana-2。
微软开放了网站 MAI Playground(下图),现在可以免费生成图片。

我试用后,图像质感确实很好,非常逼真。比如,一只狗在海里骑自行车。

但是,它的使用限制很多:(1)有争议的、可能冒犯的图片,都会拒绝生成;(2)每天的免费额度是15张,每次生成的间隔时间是30秒;(3)它只能生成长宽比 1:1 的图片,其他分辨率都不支持;(4)不提供图像编辑和加工,只能用来"文生图"。
如果你需要通过文本生成高质量图片,可以试试它。
1、可玩的封面
红牛公司推出了一本纸质的游戏杂志《GamePop》。

它的封面有一个可以玩的"俄罗斯方块",是世界首本封面可以玩游戏的书。


奥秘就是封面里面,嵌入了一块非常薄的柔性电路板。

这块板配备了180个 RGB LED 灯、7个电容式触摸按钮、一颗32位 ARM 芯片。

它还包含一块可充电电池,可以通过 Type C 充电。

可惜的是,这个封面是限量版,不公开出售。它得到了俄罗斯方块公司的官方授权,全球仅发行150套,每套均有独立编号。
2、收费的真人客服
企业都不喜欢提供真人的电话客服,因为成本很高,更希望改成机器应答的电话客服。
惠普公司想出了一个点子,将用户往机器客服赶。

用户打惠普的客服电话,会听到一段语音提示,要你访问官网自己去寻找答案。如果你坚持要真人客服,就要在线等待15分钟。
如果中途挂了电话,再打就需要重新等待15分钟。系统还会分别在第5、第10和第13分钟提醒你,可以访问网站或发邮件联系。
虽然这种做法很可恶,但未来可能成为常态:免费就只有 AI 客服或机器人客服,额外付费才有真人客服。
3、飞盘的玩法
怎样扔飞盘,才能又快又远?
一个美国的物理学家,找了几十个学生进行实验,使用不同手势和角度扔出飞盘。他测量了飞行速度和扭矩,把结果写成了论文。

他发现,将拇指放置在距飞盘外缘约3厘米的位置,可以获得平均转速和初始速度的最佳结果。

他还发现,转速与初始速度存在线性相关,转速越高,初始速度也越高。
所以,下次玩飞盘的时候,你要放对拇指的位置,然后用足力气,反手甩出,就可以取得最佳结果。
1、MkDocs 的缓慢崩溃(英文)

MkDocs 是著名的文档网站生成工具,但是主要贡献者之间有激烈矛盾,互相对抗,导致这个项目四分五裂。本文就梳理这件事。
2、大模型预测咖啡散热(英文)

作者让各种大模型给出咖啡散热时间的公式,然后测量了实际的散热时间,得到了一个排行榜。
3、下一个 App 很可能是无头应用(英文)

如果我们未来都通过 AI 助手使用手机,那么各种 App 就不需要显示模块了(无头),只需向 AI 助手提供数据接口。
4、网页前端数据压缩的一种方法(英文)

本文介绍如何在前端,通过 canvas(画布)将数据压缩成一张图片。
5、Ruby 是构建 AI 应用的最佳语言(英文)

作者使用 Python、JavaScript、Ruby 三种语言写一个 AI Agent,比较后认为 Ruby 写 AI 应用最方便。
6、古罗马的混凝土建筑(英文)

古罗马人发现了混凝土,学会了用它浇筑建筑物。结果就是,古罗马建筑有古代最大的室内面积,并且非常坚固,保留到了今天。
proxychains4 的 Rust 实现,指定某个进程走代理链。(@tianrking 投稿)

一个基于 Cloudflare Worker 的博客系统,集成 D1、R2、KV、Workflow 等服务。(@du2333 投稿)
3、Tunelo
一行命令将本地服务暴露到公网,只需要单个 4MB 二进制文件,使用 QUIC 协议。(@jiweiyuan 投稿)
4、ReadAny

桌面端 + 安卓端的电子书阅读工具,自带 AI 功能、语音朗读和多端同步。(@codedogQBY 投稿)
5、RaTeX

纯 Rust 实现的 KaTeX 兼容的数学渲染引擎,原生解析、排版 LaTeX 数学公式,支持各种环境。(@erweixin 投稿)

开源的 Win/Mac 桌面应用,在后台持续记录当天使用过的应用、访问过的网站等,便于整理成个人的工作轨迹。(@wm94i 投稿)
7、Valdi
SnapChat 发布的 UI 框架,可以用类似 React 的语法编写组件,然后编译成 iOS、Android 和 macOS 的原生应用。
8、Npflared

架设私有 NPM 镜像的工具,适合企业用来提供内部的 JS 软件包。
9、Chokidar
一个 Node.js 模块,用来监听文件系统的各种事件(新增、删除、编辑等),比原生的 fs.watch / fs.watchFile 功能强。
1、微信的龙虾接口

微信官方本周发布了龙虾接口,AI 机器人可以向微信发消息了。
很多项目利用这个接口做二次开发,便于各种 Bot 和 Agent 网关的接入。

跨平台桌面应用,AI 命令行任务(Claude code/Codex/Gemini)完成后,发出任务完成提醒,支持各种渠道(飞书/钉钉/企微 Webhook、Telegram、邮件、桌面/声音提示)。(@ZekerTop 投稿)

macOS 的 Claude 资源(Skills、MCP、Agent)桌面管理工具,提供一个图形化的中央控制台。(@Daydayoneup 投稿)

龙虾 OpenClaw 的修改版,尽量消除代码的风险点。

一个 Linux 应用,集成了各种人类知识(维基百科、全球地图、在线课程、本地 AI 助手)等等,用于在断网时查阅。(@15x3 投稿)
2、用于数据分析的 AI Coding Agent(英文)

著名开发者 Simon Willison 的培训班讲课资料,通过 AI 工具进行数据分析,有详细步骤。

一本开源的 TypeScript 教程,有中文版。
1、苹果壁纸彩蛋
苹果公司最近发布了新笔记本 MacBook Neo,跟以前一样,配一张特别的壁纸。

壁纸里面嵌入了产品名,以前的壁纸也有这个彩蛋。
iMac

MacBook Pro

iPad Air

MacBook Air

iPad Mini

iPad Pro

1、儿童死亡率
现代人很难想象的是,人类历史的大部分时间里,儿童死亡率(在成年前死亡)一直接近50%。

上图中,红线就是婴儿死亡率,一直稳定在50%左右。直到19世纪后期,才开始快速下降。
2020年,全球平均婴儿死亡率是4.3%,最低的国家已经达到了0.3%。
1、别变成机器
我最近看到一句话:"只有奴隶才通过生产力来量化自身的存在价值。"
是啊,生产力越高,奴隶越有价值。
这让我想到,如今的社交媒体上充斥着大量的奋斗文化,许多人展示自己是多么努力在提高个人生产力。
在我看来,这就是将自己跟机器做比较。大家认定,如果能像机器一样,接收指令并高效地完成某个目标,自己就越有价值,就能取得人生成功。
社交媒体上,这种"奋斗文化"有很多表现形式:(1)你还不够努力。(2)你得早上五点起床。(3)你得第一个到,最后一个走。
这种文化的背后,就是要求人变成机器。
机器确实很高效,但有一个问题:它是刚性的,以既定的模式和线性速度运转,无法自动适应环境变化,也无法学习游戏规则。
你不是机器,你是人。你的特点应该是灵活应变,快速适应。你不要追求极致的努力,而是要找到最有价值的解决方案。你要专注于真正重要的因素:速度、效率或质量,不要迷恋枯燥乏味的工作。
1、
我们创造了一个文明,其中最重要的元素都深深地依赖于科学技术,但是我们还让科学技术变得如此难懂。这会带来灾难,我们可能暂时侥幸逃脱,但迟早,这种无知和权力的易燃混合物会爆炸。
-- 卡尔·萨根
2、
巴黎以前总是堵车,市长想出一个办法,大幅减少停车位,后来果然少有人开车了。
-- CNN
3、
一项研究发现,远程教学下,外形出众学生的作业成绩,要比面对面教学时更低。
-- 《经济学快报》
4、
这些年对我影响最大的事情,就是我变成了一个"白天型"的人。
我以前经常熬夜,有时会到天亮。最近五年,我强迫自己养成早起的习惯。现在,我的生活都在白天,亲眼看到黎明和黄昏,让我感到心安,生命与自然循环和谐一致。
-- 《成为一个白天生活的人》
5、
AI 很擅长将清晰的想法转化为可运行的代码。真正耗时的是弄清楚我到底想开发什么。
-- lustin.fr
如何阻止 AI 爬虫(#343)
一周是一年的2%(#293)
与孔子 AI 聊天(#243)
前端与后端,谁更难?(#193)
(完)
2026-03-21 18:19:11
1、
本周末,有一条最热闹的 AI 新闻,震动了太平洋两岸,连马斯克都关注了。
昨天,AI 编程工具 Cursor 推出了"自己的"模型 Composer 2。

上图是官网截图,现在点进去还写着"自有模型"。
自从2024年10月,Composer 1 发布以来,外界就一直怀疑,它是套壳的中国模型,因为行为很类似,但苦于找不到证据。
现在 Composer 2 来了,很多人就开始研究,它的背后到底是什么模型,真的是 Cursor 自家的吗?
Cursor 为了防止破解,做了很多限制,但是百密一疏。国外推友 @fynnso 发现,有一个地方在上一个版本是禁止的,但是这个版本却可以执行。
首先,你自己架设一台服务器,充当 AI 模型的调用接口,有没有模型无所谓,只要能收到客户端请求就行。
然后,你在本地的 Cursor 里面,设置使用的模型为 Composer 2,模型网址就是你刚架设的服务器。这样一来,Cursor 就会向你的服务器发出请求,从而可以看到它到底在请求什么模型。
真相就暴露了,它请求的模型 ID 居然是 kimi-k2p5-rl-0317-s515-fast(下图)。

2、
这位国外推友就把上面的截图,发布到网上。这下炸锅了,明眼人都看出来,这是铁证,Composer 2 实际上是套壳的 Kimi K2.5。

可笑的是,事情一爆发,Cursor 第一时间就把漏洞堵上,现在已经没法复现这个请求(下图)。

但是为时已晚,网上传遍了,就连马斯克也发推:"它就是 Kimi K2.5"。

这下好了,变成了公开的秘密,再也无法掩盖了。
3、
大家的关注点,很快就转移到 Cursor 是否侵权。因为 Kimi K2.5 虽然是开源模型,但是采用的是修改的 MIT 许可证(下图)。

许可证这样说:你可以任意使用这个模型,唯一的条件是如果你的商业产品月活用户超过1亿,或者月收入超过2000万美元,你必须在用户界面的醒目位置披露,你使用了 Kimi K2.5。
Cursor 最新披露的年化收入是20亿美元,相当于月收入1.67亿美元,显然满足上面的条件。但是,它隐藏了使用 K2.5 的事实。
就在大家认定 Cursor 侵权的时候,他们的一个负责人终于坐不住了,出来说话了。

他承认确实使用 Kimi K2.5,但是没有侵权,他们的许可证来自合作伙伴 Fireworks AI。
稍后,Kimi 官方也发推了。

Kimi 官方确认,Cursor 是从 Fireworks AI 得到了授权。后者是一家硅谷的华人 AI 公司,从事 AI 模型的微调和强化学习,它从 Kimi 得到授权对模型进行再训练,然后又转授权给了 Cursor。
4、
事情到这里就基本清楚了,Cursor 并没有违反 Kimi 的授权条款,因此不存在侵权。
既然如此,为什么它拼命掩盖这个事实,大大方方承认,提供 Kimi K2.5 的修改版模型,很难吗?
我猜测,原因跟 Cursor 不断膨胀的估值有关。
彭博社本月报道,Cursor 正在进行下一轮融资,估值达到500亿美元。

大家知道吗,它以前的估值是多少?
2023年10月,Cursor 成立时的估值是5000万美元;2024年8月的 A 轮融资,估值上升到4亿美元;12月的 B 轮融资,估值快速上升到26美元;2025年11月的最新一轮融资,估值已经到了293亿美元。
可以看到,每过几个月,估值就会翻倍。这种火箭式的上升速度,需要有业绩支持。但它本身只是一个 VS Code 的修改版,使用的都是开源技术。
为了支撑越来越高的估值,它有动机把自己从 AI 工具,包装成具有模型研发能力的大模型公司。
我认为,这才是它不愿意披露使用了 Kimi K2.5 的主要原因。
5、
纵观整个事件,Cursor 无疑是输家,Kimi 则是这次的赢家,免费得到一大波高价值的曝光。
Cursor 发布 Composer 2 时,披露了性能和成本比较。
Composer 2 的性能低于 GPT-5.4,但高于 Opus 4.6。

但是,它的生成速度比 GPT-5.4 和 Opus 4.6 都快,成本也是最低的。

既然 Composer 2 就是微调的 Kimi K2.5,那么直接使用 Kimi,也能得到同样的效果。
6、
以前,国外总是有人指责,中国公司窃取外国技术。但是,这个事件证明了,中国公司也有技术输出。那些国外的明星公司,背地也在偷偷摸摸使用中国技术。
联想到上周,Kimi 的创始人杨植麟收到黄仁勋的邀请,在 Nvidia GTC 大会演讲,是唯一的中国大模型公司代表。

他在台上宣讲,Kimi 团队刚刚发表的论文《注意力残差》(Attention Residuals)。

这种新技术据说可以显著提升大模型的推理能力。
我的想法是,大家要对国产大模型有信心,日常工作完全可以放心使用。国产大模型与国外旗舰模型的差距,正在不断缩小,而且价格实惠。

据杨植麟说,下一个要发布的 K3 模型性能提升巨大,即便没有强10倍,也比 K2.5 强得多,我们可以期待一下。
(完)