MoreRSS

site iconMaZhuang | 马壮修改

博客名:码志。仰慕「优雅编码的艺术」。坚信熟能生巧,努力改变人生。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

MaZhuang | 马壮的 weibo 的 RSS 预览

LLM 法学硕士,RAG 破布[吃瓜]//@高飞:这些翻译都比不了“法学硕士”带给我的震撼性 //@karminski-牙医:回复@GarbageCo11ection:有的时候AI还会翻译成变形金刚,...

2025-04-24 08:42:25

LLM 法学硕士,RAG 破布[吃瓜]//@高飞:这些翻译都比不了“法学硕士”带给我的震撼性 //@karminski-牙医:回复@GarbageCo11ection:有的时候AI还会翻译成变形金刚,尤其是之前有个模型叫optimus,直接翻译成了擎天柱[开学季]//@GarbageCo11ection:Overview of transformers 变压器概述 EE学生狂喜

- 转发 @karminski-牙医: 斯坦福发了个新的 Transformer 课程,这个课程邀请到了 Andrej Karpathy, Geoffrey Hinton, Jim Fan, Ashish Vaswani 等大佬,可以免费在线观看

地址:web.stanford.edu/class/cs25/

#AI生活指南# #ai创造营#

彩色油菜花 mzlogin的微博视频

2025-03-15 15:44:47

彩色油菜花 mzlogin的微博视频

一个好的预处理器是不是就能完成这种转换? - 转发 @高飞: #模型时代# Andrej Kaparthy新推文,我们的内容将不再是为人类而写,而是为模型而写。最近我也正...

2025-03-13 08:43:33

一个好的预处理器是不是就能完成这种转换?

- 转发 @高飞: #模型时代# Andrej Kaparthy新推文,我们的内容将不再是为人类而写,而是为模型而写。

最近我也正在思考这件事情,实际上很多时候我们已经不直接阅读内容,而是间接阅读AI的二创内容,那么就要考虑让AI一手阅读更友好。

唉,这个时代的车轮滚滚向前啊。

***
虽然已经到了2025年,但我们今天绝大部分的内容——比如文章、文档、网页——仍然是专门为人类设计和优化的,而忽略了未来的现实:绝大部分的阅读者可能会是大型语言模型(LLM),而非直接的人类读者。

换句话说,现在的内容(比如网站文档、说明书、新闻)还是在假设人类会自己阅读,点击链接、寻找信息。但是未来,人类更有可能通过与 LLM 对话来获取信息,让 AI 帮我们整理、总结、解释这些内容。在这样的世界中,“注意力经济”的主体将不再是人类,而是这些大型模型的注意力(LLM attention)。

总之是:
过去的内容生产:面向人类优化
未来的内容生产:面向LLM优化

如果主要“读者”是 LLM,那么最优的文档格式应该是 结构化的、易于 LLM 解析的文本,例如一个 your_project.md 文件,直接放入 LLM 的上下文窗口,让它快速理解并总结关键内容,而不是让 LLM 解析复杂的网页结构。