2025-12-15 09:20:00
提笔写下这篇总结的时候,窗外的银杏叶已经落得差不多了,天气也倏忽之间就冷了下来。东京的秋天走得安静,只留下满地金黄,但冬天却来得急躁,提醒人们时间确实在向前流动。 按照往年的惯例,我大概会用“懒癌发作”或者“没什么进取心”作为开场白:一方面习惯性自嘲,另一方面也给自己留点退路,装作好像只要态度足够散淡,变化就追不上来的样子。但回望 2025 年,我发现这些词突然变得不太合适了。并不是我变得勤奋了,而是这个世界的变化速度,已经快到了即使你选择“躺平”,也能清楚地感觉到身下的地板在带着你呼呼向前移动。 如果说前几年我们还在讨论 AI 能不能做事、会不会做事,那么到了 2025 年,这个问题几乎已经失去了继续讨论的意义。我们不再站在岸边观察潮水,而是已经身处浪潮之中。无论情愿与否,这一年,几乎没有人还能置身事外,所有人都成为了这场巨变的直接参与者。 今年的总结,我想试着从几个贯穿全年的主题出发,聊聊在这个智能骤然丰裕的时代拐点上,我的一些观察、困惑、犹豫,以及尚未成型的浅薄思考。 智能膨胀与元学习 两个娃一天天长大,也都进入了小学,姐姐更是为了准备初中考试开始了补习班生涯。她...
2025-10-13 23:10:00
最近科技界一扫前些年死气沉沉的阴霾,各种新东西乘着 AI 的东风纷至沓来。我自己分享欲也有点爆表,所以闲暇时 vibe coding 了两个小项目,想要尝试拓展一下自己表达的边界和形式。这篇文章先简单介绍一下两个项目,然后谈谈(作为一个“资深”程序员)在开发过程中的一些体会和感受。 项目简介 Magpie 首先是驱动我个人链接收藏页面的 Magpie (喜鹊,没错我就是很喜欢用鸟来给项目命名的人),它是一个轻量级的链接收藏,后端接入 AI 模型,可以从链接 URL 中获取内容,自动提取标签以及合适的分类,甚至按需求写一些短评。你可以把它想成上个世代的各种 Read it later 服务的 AI 加强版,并且配套的管理后台、快捷指令和 Chrome 插件也都齐备了。 AI 贼船 其次是一个更简单一些的静态页面「上了AI的贼船」。我会不定期在这个页面分享我在使用 AI 工具进行日常开发,生活和娱乐等方面的心得以及实际的使用案例。在 build 时,我使用中文书写的内容会通过 LLM 自动翻译成其他支持的语言;当然,深浅颜色切换,feed 订阅这些基本要素也都完备。 ...
2025-08-03 17:00:00
六月中旬某个闷热的夜晚,在初浅尝试使用 API Key 帮我迅速完成了一个任务后,我毫不犹豫地点下了 Claude Max 的订阅按钮。作为一个“买断制”时代的遗老,每月一两百美金的订阅对当时的我来说还是太超前了。但是在一个半月之后回头望去,看着那些按照 API 计价的被我烧掉的价值 3000 多美金的 token,我似乎捡到了一个超大便宜?不过最近 Anthropic 宣布了新的 weekly 限制,想来大概针对的就是我这种“重度”用户吧。所以近几天来我也在研究有没有其他替代方案,可以让我从这种限制中解脱出来。不过尝试了一圈下来(包括 CC 接其他 API,也包括像 Codex/Gemini/Qwen/Crush/Amp/AugmentCode 等等),似乎一时半会儿在这个领域 Claude Code (后文用 CC 指代) 还是没有竞争对手。既然还得续费,那不如阶段性地做一个总结,来记录下这一个半月使用 CC 的一些感受吧。 Vibe Coding 的迭代速度 说到 vibe coding,最让我震撼的其实不是模型有多智能或者是能完成什么尖端任务,而是由它带来的产品迭...
2025-06-17 20:00:00
WWDC 2025 上,苹果公布了设备端的 Foundation Models 框架,可以让开发者们使用离线模型完成一些基本的 AI 任务。虽然各个 session 已经详细介绍了基本用法,但作为开发者,我们更关心的往往是:这个框架的边界在哪里?什么情况下会出现问题?实际性能如何? 经过近一周的测试和探索,我有了一些有趣的发现。这些发现可能对你在实际项目中使用 Foundation Models 有所帮助。 重要提醒:本文所有结论基于 macOS/iOS/Xcode 26 Beta 1,实际发布版本可能会有变化。苹果在 lab 中也明确表示,模型会随着 iOS 版本更新而持续改进。 结论先行 Foundation Models 已经可以用于生产环境了吗? 我的答案是比较乐观:虽然还是 beta 1,但框架的稳定性出人意料地好。Apple 一改往年 beta 约等于 alpha 的特性,这次端出了大体能用的东西,让人喜出望外。不过,你还是需要了解它的边界和限制。 核心发现汇总: 内存消耗:总运行时内存约 1.0-1.5GB(模型权重 750MB + KV c...
2025-04-01 19:00:00
作为示例,本站也开始提供 llms.txt 和 llms-full.txt 的支持,可以参看下面的链接获取相关文件。 llms.txt llms-full.txt 什么是 llms.txt 大型语言模型(LLMs)是截止至训练日期时的人类知识的总集。而如果想要精确地解决更加实时的问题(比如在进行代码生成、研究辅助等任务中),我们可以通过搜索最新知识,依赖网络信息,来极大提升模型的准确性。然而,标准的 HTML 内容通常包含导航元素、JavaScript、CSS 和其他对于 LLMs 而言非必要的信息。这些冗余信息会在对话中占据 LLMs 有限的上下文窗口,也会干扰和降低处理效率。此外,LLMs 直接抓取和解析完整的 HTML 页面效率也很低下。为了应对这些挑战,llms.txt 应运而生,它是一个正在讨论的标准(参见 llms-txt.org),旨在为 LLMs 提供一个简洁、专业的网站内容概述,以单一且易于访问的 Markdown 文件格式呈现。llms.txt 就像一个网站的“指南”,引导 AI 系统找到站点上的关键信息,并以易于阅读和分析的结构化格式...