2025-04-24 08:42:25
LLM 法学硕士,RAG 破布@高飞:这些翻译都比不了“法学硕士”带给我的震撼性 //@karminski-牙医:回复@GarbageCo11ection:有的时候AI还会翻译成变形金刚,尤其是之前有个模型叫optimus,直接翻译成了擎天柱 //@GarbageCo11ection:Overview of transformers 变压器概述 EE学生狂喜
- 转发 @karminski-牙医: 斯坦福发了个新的 Transformer 课程,这个课程邀请到了 Andrej Karpathy, Geoffrey Hinton, Jim Fan, Ashish Vaswani 等大佬,可以免费在线观看
地址:web.stanford.edu/class/cs25/
#AI生活指南# #ai创造营#![]()
2025-03-13 08:43:33
一个好的预处理器是不是就能完成这种转换?
- 转发 @高飞: #模型时代# Andrej Kaparthy新推文,我们的内容将不再是为人类而写,而是为模型而写。
最近我也正在思考这件事情,实际上很多时候我们已经不直接阅读内容,而是间接阅读AI的二创内容,那么就要考虑让AI一手阅读更友好。
唉,这个时代的车轮滚滚向前啊。
***
虽然已经到了2025年,但我们今天绝大部分的内容——比如文章、文档、网页——仍然是专门为人类设计和优化的,而忽略了未来的现实:绝大部分的阅读者可能会是大型语言模型(LLM),而非直接的人类读者。
换句话说,现在的内容(比如网站文档、说明书、新闻)还是在假设人类会自己阅读,点击链接、寻找信息。但是未来,人类更有可能通过与 LLM 对话来获取信息,让 AI 帮我们整理、总结、解释这些内容。在这样的世界中,“注意力经济”的主体将不再是人类,而是这些大型模型的注意力(LLM attention)。
总之是:
过去的内容生产:面向人类优化
未来的内容生产:面向LLM优化
如果主要“读者”是 LLM,那么最优的文档格式应该是 结构化的、易于 LLM 解析的文本,例如一个 your_project.md 文件,直接放入 LLM 的上下文窗口,让它快速理解并总结关键内容,而不是让 LLM 解析复杂的网页结构。![]()
2025-03-08 21:42:59
我还以为要做个蒜鸟
- 转发 @武汉市文化和旅游局: #文旅分享# 大蒜皮也可以做漂亮的花,一起做起来。(via@秒懂创意 ) 秒懂创意的微博视频
2025-03-04 09:55:41
感觉前半段领先于潮流,后半段落后于潮流。//@来去之间://@PS3保罗://@柴可夫斯基-平行进口车手册: //@他们叫我冰箱://@安定郝姥爷:还真是//@罗大伦:好像真差不多的…//@白云出岫:记得真清楚
- 转发 @MingZhC: 中国(大陆)发展得有多快?![]()