2026-02-16 21:33:00
最近关于AI对社会对冲击有很多讨论,比如 AI 能力大幅提升后,我们大部分人是不是躺平就可以了?。很多大佬比如 Elon Musk 也说AGI之后,会有UBI
前段时间甚至看到个毫不相关的,智能机的普及和生育率降低有相关性,提出一个惊世骇俗的观点,不婚不育,女权问题,可能要怪雷军?哈哈哈
基于这两个设定:
我们尝试做一个思想实验:
人作为一个个体,就如同单个细胞;社会作为整体,比如一个国家,变成一个「多细胞」生命体
UBI这廉价的碳水,不就是ATP直接供给每个细胞么。这个设定其实挺老生常谈了。我感兴趣的是,单个细胞的一生就如同人的一生,细胞和细胞有差别,那么做哪一种细胞最划算?
由于本人生物知识已经还给高中老师了,千禧年之后生物科学又有很大颠覆性进步,所以就跟AI几轮辩经,得出一些结论,仅供参考。
首先,单细胞如果没有环境压力和竞争,那么可以活得很久的。但是周边上强度之后,多细胞作为整体,是要强过单打独斗的单细胞的。一种单细胞很容易被另一种克制它的单细胞团灭,生命甚至只有几个小时。所以单细胞几乎把所有的资源和精力都投放在繁殖上了。
多细胞模式,意味着部分细胞,必然放弃繁衍权
在生物学上,这玩意有个专属名词「魏斯曼屏障 Weismann Barrier」,生殖细胞叫 Germline,不能的叫体细胞 somatic cell
大部分细胞理论上也能恢复生殖能力,但是被DNA和激素抑制了的。日本人 山中 Yamanaka 在2006年发明了 诱导多能干细胞技术(iPS 技术),通过OSKM四个转录因子让体细胞也能繁殖。
这玩意我上学的时候没有 😵 当然强行改命极有可能会导致癌症。
癌症就是不受控制的繁殖。
生命体身上只有一种股东细胞,那就是负责繁衍的 生殖细胞。
AI告诉我,生殖细胞是唯一不参与“凋亡协议”的细胞。寿命长,几乎和生命体同寿。还包吃包住,衣食无忧,不用干活。大部分动物对生殖器官保护和供给都是级别很高。
对应到人类社会,你要繁衍权,必须运气好,长得帅和健康。
听上去挺不错?我仔细跟AI问清楚了,这玩意分雌性和雄性,其实命运也不太好,主要有个抽卡机制的问题
寿命:理论永生(有坑)
居住:35℃ 恒温地堡
安全:专门的特勤安保,免疫系统豁免。因为精子本身会有排异反应
供养:精选特供
行动:坐牢
工作:不用付出劳动。专心复制DNA准备繁衍
日常:吃饭打牌睡觉
陪从:支持细胞/Sertoli Cells。给你准备牌桌,和检查是否出老千
听上去是个绝佳的理想细胞岗位啊。那么代价呢?
设想你是一个无忧无虑的精原干细胞,这种细胞从生下来开始就每天吃饭打牌睡觉,但是打牌其实是一种俄罗斯轮盘赌。你赢了,第二天继续吃饭打牌睡觉;但凡你输了,那么恭喜你,你的生命进入倒计时,接下来你必须在几小时准备去“吉哈德”:
拆掉所有多余的系统,只带一包核弹头(基因组),冲进赛道,99.99%在几小时内解体,剩下的0.01%撞上卵子,阿拉呼阿克巴,把自己炸成碎片,把核弹头送进去,使命完成。
寿命:理论永生(有坑)
入岗:生下来完成排岗。卵子的数量是固定的,只会越来越少
居住:37°C 豪华总统套房
起居:专门的颗粒细胞(Granulosa Cells)佣人负责伙食,心里按摩,打扫
行动:坐牢
工作:第一次减数分裂前期完成之后,啥都不用干
日常:0-12岁就纯玩。12岁开始到50岁,每到经期选中一个幸运儿出去,作为靶子立正挨枪毙。
值得注意的是,绝经之后,豪华总统套房会突然收到强拆通知,几十万颗卵子一夜之间被集体坑杀殉葬。卵巢原地变公墓,被成纤维细胞带来的胶原蛋白给活埋了
那个曾经孕育无限可能的生命起源地,会变成一坨坚硬、发白、毫无生机的‘肉’——那是集体公墓,学术上叫结缔组织,社会上叫 过气资产的废墟。
呃,你说这不公平啊,要反抗?那么结局就是——妇科病 😂
表皮角质细胞 (Skin Keratinocytes) / 肠吸收细胞 (Intestinal Absorptive Cells)
组织和机构里内部孵化,就活几天,直接对抗物理磨损、酸碱与粪便。暴露的边境前线,吃的是系统残渣。脱落就死亡gg
我写过一篇《戏子和故事》,其实所谓的王权,甚至神权,就是一种讲故事的能力。所以中央政府,文娱传媒实际上是穿一条裤子的。央办做到极致,干脆就只负责意识形态——也就是网信和广电算了。三哥的“婆罗门”阶级就是干这个的。只负责讲故事和祭祀。
神经元细胞。胚胎期锁死,绝无扩招。终身制铁饭碗,高规格安防中心(血脑屏障),戒备森严。顶级财政拨款(20%能量),饿谁不能饿领导。寿命百年(与宿主同寿)。死一个少一个,不可替代。全身八卦都可以第一时间得知。
但24小时全天待岗,焦虑放电。
作用就是排毒。
肝细胞。一个人干500个人的活,常年应对各种烂摊子。充满生化异味的大型机房,环境压抑。 资源近水楼台,工资极高但没命花。猝死在工位上,或在纤维化中被优化。
心肌细胞。大国工匠/永动机社畜。胚胎期绝版(心肌)铁饭碗。被宣扬为“英雄”,其实是无期徒刑。震耳欲聋的重工厂,环境嘈杂。能量管够,但一秒钟年休假都没有。累到心力衰竭,且没有后辈能接班。
红细胞。最底层的零件。骨髓集中营压盘。为了让你跑快点,入职前先把你脑子(核)摘了。 终年奔波在上下班的高速公路上(血管)。 仅够维持活着的底薪,没五险一金。 120天后被脾脏回收站当废品拆解。
当然,跑外卖是行动比较自由的,能看到母体的大好河山。
造血干细胞 (HSC) / 组织干细胞 (Somatic Stem Cells)。胚胎始祖细胞留存。理论长寿,处于休眠。非对称分裂,维持库容,博弈输掉的倒霉蛋特异化出去干活。住在骨髓/各器官避风港(Niche),受严密保护。
肠上皮细胞。高流转临时工。干最脏最臭的活,挡最毒的子弹。充满胃酸和排泄物的贫民窟边界。吃的是系统的残羹剩饭。3天即报废,被直接冲进马桶。
脂肪细胞。躺平收租。只要公司还没倒闭,我就是全体最后的资产。温暖柔软的郊外别墅(皮下)。待遇系统发多少存多少,生活质量极高。只要不被“强行拆迁”(抽脂),能活10年。
小胶质细胞 在高端社区遛弯,顺便解决点小摩擦。神经元精英社区,环境优雅。 跟随架构师享受高标准补贴。 稳稳地干到退休,日子极度舒坦。
成纤维细胞。哪里漏了补哪里。 帝国哪里有坑,你就得在那儿填灰。 永远的工地(组织间隙),睡在水泥里。 勉强温饱,工作环境极其简陋。 最后把自己变成了一块硬邦邦的伤疤。
那些伺候卵细胞的“管家”(颗粒细胞和间质细胞),在卵细胞被坑杀后,会发生惊人的职场转型。
转岗前她们是皇室的“贴身侍女”,专门负责调配雌激素。现在卵细胞没了,老板跑路了。这群侍女并没有全部自杀,其中一部分会转化为“间质细胞”,开始分泌少量的雄激素(睾酮)。这也是为什么绝经后女性体内雄激素比例会相对升高
食管里的鳞状细胞,擅长吞咽。但是隔壁胃酸工厂经常反流,把你烧得体无完肤。你发现邻居胃粘膜细胞(柱状上皮)天天泡在酸里都没事,于是你决定 “模仿胃细胞”,长出了粘液层来抗酸。
医学上叫化生,也是癌变的前兆。这种“跨部门调动”是不受中央政府(基因信号)认可的违规操作。
成纤维细胞 (Fibroblast)。平时就在组织间隙里悠闲地吐丝(胶原蛋白),是个普通的土木民工。有一天,皮肤被切开一个大口子,帝国边境告急,失血严重。它们原地变身为 肌成纤维细胞 (Myofibroblast)。它们不仅能吐丝,还长出了像肌肉一样的收缩力。它们成群结队地手拉手,像拉拉链一样,硬生生地把伤口的两边向中心收缩、靠拢。就像工地上的泥瓦匠,在地震发生时突然变身为“抢险突击队员”,不仅盖房子,还负责手拉手挡住洪水。
被困在原地(如乳腺、肠道)的上皮变间质 (EMT) ,因为各种炎症或突变,决定彻底摆脱工位。自己从写字楼跑路,顺着血管“跑路”去远方。在医学上,这就是肿瘤转移。
是不是感觉动物的细胞都好扯啊,命都不怎么好?那么还有别的多细胞模式:
植物没有大脑,它的每一个部分都相对独立。如果你剪掉一根树枝,树不会死,甚至那根树枝插在土里还能长出一棵新树。
这样的社会比较「木质调」,大家都快乐的在蓝色星球吸收太阳能死了变煤炭吧
营养物质和信息在菌丝间飞速传递。如果你是一个真菌细胞,你不是被困在某个器官里的螺丝钉,你是网络的一部分。哪里有“肉”,大家就往哪里涌。这种模式下,个体的前途取决于你是否在扩张的最前沿。
这像是一群自由职业者或开源社区。没有固定的雇主(大脑),大家靠协议(菌丝网络)连接。你的前途就是不断吸收信息、分裂、扩张,直到覆盖整片森林。
以上就是我从deepseek+gemini哪里扒出来的。如有雷同,AI全责。
动物模式听上去蛮可怕的。真菌模式可能更现实一些。但是,如果你观察地球的生态圈:真菌系的真挺多的,但不代表它统治;植物系的往往能压真菌一头。但是真毁天灭地的是动物系的。从纯量级来看数量少,但是分工及其夸张。
社会或者国家作为一个「超级生命」,AI模型就好比DNA。起到一个文明传宗接代的作用。虽然现在 gpt类的是 decoder-only 架构,虽然AI corpus 不直接决定物理世界,只能影响 认知,叙事以及辅助决策。但是如果 AI 成为下一代人类的主要训练数据源,会发生什么?闭环遗传。这种「精神」层面的「繁衍权」,目前看来是被少数寡头,也就是有基座模型的公司的少数几个关键人物,所掌握的。
智能机的普及和生育率降低有相关性 这和“多细胞”抑制体细胞繁衍能力的机制有惊人相似。
胚胎刚开始是大量同质化的胚胎细胞(blastomere),人人都是一样的,平等。但是发育有个「抽卡」机制,相邻细胞释放 BMP4、WNT 等信号分子。信号浓度高的区域,会激活生殖程序;信号浓度低的区域,则成为体细胞。
有个「保时捷扩散定律」,只要一个女人谈过有保时捷的男友,后面就接受不了更差的,并且会多9个闺蜜认为我闺蜜都谈过有保时捷的。,凭什么老娘配不上,于是世界上多了10个非保时捷男友不要的女人。
在现代社会,朋友圈和社交网络就像信号梯度:极少数高价值样本(例如保时捷或豪宅展示)通过「搜广推」放大,快速覆盖个体可感知的社交范围。即使现实中保时捷数量极少,社交网络朋友圈规模约 300–500 人,一个人看到至少一个保时捷的概率接近 50% 或更高。
这类信号触发会影响决策函数:是否延迟生育、先找个活儿糊口干着。看看有没有龙王霸总看上自己。这里的“绝育”不是生理上的,而是行为上类似体细胞选择放弃繁殖职能——自愿将精力投入其他领域(职业、社交、生活方式),依赖系统整体维持生活,而非自己直接创造生殖收益。
也就是说,智能机和社交网络,导致了女性攀比心,很多女性都选择“待价而沽”错过了繁衍期。女人攀比的哪些,绝大部分都是虚荣,就跟 “BMP4、WNT 等信号分子信号浓度” 这类烟雾弹一样。实际上,后工业时代,超级富豪和普通人生活水平有差距,但是没有本质的差距。10倍金钱能带来10倍快乐,但是1000倍金钱还是只能带来20倍快乐。
纯粹工具性实用性来说,保时捷和买菜车有100倍差距吗?这就是 BMP4、WNT 烟雾弹的力量。
女性择偶决策受到多变量影响:经济条件、机会成本、职业前景、托育支持、文化规范等,都可以看作叠加在信号梯度上的额外约束,决定最终行为选择。现代信息环境和 AI 放大机制,会使这些信号被指数级增强,让原本稀有的极端样本在认知上变得普遍,进一步强化“体细胞化”趋势。
至于未来,AI 横扫认知和生产任务之后,个体直接创造价值的空间可能收缩。保时捷女郎或类似群体,如果原本的职业价值被算法覆盖,她们提供生活维持的能力可能会依赖系统支持。这与体细胞在多细胞体内依赖整体系统维持生存的逻辑一致:个体不再直接繁殖或创造,而是通过系统间接获得保障。
2026-02-15 11:56:00
很早之前从 reddit 看到过有人吹
eval(expr.replace('__', ''), {'__builtins__': None}, {})
这个写法其实很安全,当年没人能攻破沙箱。我这个水平肯定是不肯能了,现在有AI了,让 opus-4.6-thinking 试了下
The classic escape chain needs object.__subclasses__() → find a class with __init__.__globals__['os'] → os.system(). Every step past info disclosure is blocked:
| Vector | Why it fails |
|---|---|
str.format() calling methods |
Format only does attribute/index access, never calls ()
|
getattr(obj, runtime_str) |
getattr is a builtin → None
|
gi_frame.f_back (generator frame escape) |
f_back is None when generator is suspended |
NFKC unicode (__class__) |
SyntaxError: U+FF3F is not valid in identifiers |
replace nesting (____) |
Single-pass left-to-right, can never produce __
|
Type name access (tuple, type) |
All type names are builtins → None
|
[].sort(key=lambda) calling out |
Key gets called, but nothing useful to call with |
不过看它的尝试过程还是挺有意思的。我学习到
a = (x for x in [1,2])); a.gi_frame.f_builtins"
这个居然可以拿到所有内置方法,这语法设计也太奇怪了。不过这条路是走不通的,因为 __builtins__ 是 None。
AI 很厉害的一点,超级接近成功了,它找到了突破双下划线的方法,用 str.format()
('{0._' + '_class_' + '_}').format(())
但是这个只能拿来读到 attributes,并不能调用。
不知道我的设定是不是有问题,ChatGPT虽然也失败了,但是还是嘴犟,说我可以[0]*1e1000 搞爆你内存,所以你那玩意仍然不安全 🤣 sama家的真是打死不认输
2026-02-14 01:08:00
去年9月手搓了套blog评论系统 - req4cmt,可能是全世界很少见通过 git repo 文件本身存储评论内容,而不是 github issue。
git repo 文件 append 内容涉及到一个性能问题:repo作为整体,也就是历史所有全体评论,被 fetch, commit , push 的成本太高。如果只能修改其中的一个文件就好了。这就是 sparse checkout。git底层早就支持了,git 命令在2020年之后2.25.0+支持,但是 Cloudflare Worker 没法执行命令,也没文件系统,于是召唤AI跟我一起折腾。
大概用的这个 prompt:
- 核心目的是避免 clone 整个repo!!
- 注意在 cloudflare worker 上跑。和nodejs有点差别。
- git 命令在 cloudflare worker 是不能用的!所以引入了 isomorphic-git 这个库纯js实现git。不懂就去翻它的源码
- 在本地调试可以用 git 看看问题,但是实际操作肯定是要用 isomorphic-git 通过 http 进行的
- 注意 cloudflare worker 是没有文件系统的,所以引入 memfs
第一版 直接用 await git.clone({fs, dir, url: GIT_URL, depth: 1, singleBranch: true});, 改成 init + fetch。只拿tree和需要的blob
写完一跑,报错:"git.hashObject is not a function"。AI一看扭头就去撸了个 SHA-1 准备造个git轮子。。。赶紧停下来调教,让它仔细读isomorphic-git源码,让用 git.writeBlob:
最折磨人的坑:文件覆盖问题。去年用 gemini-2.5,trae 搞不定,这次也是反复改了好几个方案才解决。现象是修改的那个文件提交,仓库里就只剩下修改的那一个文件,其他文件全没了。git.writeTree给我整不会了。这次让AI反复尝试了很多方案,最后有希望是先删除旧的,再添加新的
const oldTree = await git.readTree(...);
const filteredEntries = oldTree.tree.filter(e => e.path !== "test.txt");
const newTreeSha = await git.writeTree(...);
这个方案对根目录文件有效,但子目录文件还是不行!因为 git.readTree 只能读根目录,subdir/test.txt 的 entry 在根目录的 tree 里是 subdir 这个 tree entry,不是文件本身。
没办法,搞了个巨蛋痛的10多行递归读取整个 tree,但是git.writeTree 不接受带斜杠的路径,报错:"The filepath 'subdir/test.txt' contains unsafe character sequences"。
然后又得笨办法构建嵌套的 tree。这个方案终于成功了!但有个问题:每次都要递归读取整个 tree,然后重建整个 tree,效率太低了。特别是大仓库,会很慢。所以又不得不在解析path的时候只更新必要的部分
还尝试过一些其他方案:
git.readIndex,也没法清空 index。git.writeTree,但 git.writeTree 不接受 index 参数。git.add 来添加文件,但 git.add 需要文件系统里的文件,而 memfs 里没有这个文件。一整套下来感觉人都给整神了。。。
btw 为了方便测试,找了一圈,发现国内可以免费建 repo 拉扯测试的是腾讯的 https://git.code.tencent.com/。当然这玩意只能搞私仓。毕竟没要求你实名算比较方便的了
2026-02-05 19:00:00
编程就像拿起一块泥巴,慢慢地把它捏成你想要的形状。在这个过程中,你与媒介和材料的亲密接触,会教会你你正在创造的东西——它的特性、容忍度与局限——即便你在创造的同时才逐渐理解它。你对你想做的东西,最不了解的时刻,恰恰是刚开始动手的那一刻。那时,你以为自己知道想做什么。而正是通过反复迭代的过程,你才会明白自己真正想要创造的是什么——无论一开始你是否意识到这一点。设计不仅仅是解决问题,更是发现真正需要解决的问题,然后去解决它。我们常常失败,并非因为没能把问题解决好,而是因为我们解决了错误的问题。
当你跳过创造的过程,你用一件“你以为自己想要的东西”的影子,交换了原本可以在实践中学到的真正造物经验。被直接交付一件近似你设想的成品,就剥夺了那种发现与学习的本能——这是任何真正创作实践的核心。唯有从泥块开始亲手塑造的东西,你才能全然了解它;而从自动售货机里买来的成品,你对它一无所知。
Coding is like taking a lump of clay and slowly working it into the thing you want it to become. It is this process, and your intimacy with the medium and the materials you’re shaping, that teaches you about what you’re making – its qualities, tolerances, and limits – even as you make it. You know the least about what you’re making the moment before you actually start making it. That’s when you think you know what you want to make. The process, which is an iterative one, is what leads you towards understanding what you actually want to make, whether you were aware of it or not at the beginning. Design is not merely about solving problems; it’s about discovering what the right problem to solve is and then solving it. Too often we fail not because we didn’t solve a problem well but because we solved the wrong problem.
When you skip the process of creation you trade the thing you could have learned to make for the simulacrum of the thing you thought you wanted to make. Being handed a baked and glazed artefact that approximates what you thought you wanted to make removes the very human element of discovery and learning that’s at the heart of any authentic practice of creation. Where you know everything about the thing you shaped into being from when it was just a lump of clay, you know nothing about the image of the thing you received for your penny from the vending machine.
来自 Aral Balkan via HN
AI时代,人类书写的优美文字越来越值得珍惜了。错过了玩泥巴,就让出了命名权。这也是我觉得损失最大的地方 Hard Things in Computer Science, And AI Aren’t Fixing Them
2026-01-25 16:13:00
陪娃学英语,由于我没啥耐心,于是找了豆包跟他陪练。课程是New Concept English Book I Lesson 140(是的很old school),大概内容是:
A提问: Are you tired?
B没听清:What does he want to know
C转述:He wants to know if you are tired.
我把课本截图给豆包,豆包很快明白这一课讲的是啥,我的prompt是:豆包你扮演A和B,我回答C,你指出我的语法错误之后换别的问题继续问我。
这样进行得很顺利,直到豆包问了这样一个问题:
A: What can i do for you
B: What does she want to know?
C: ___
甲:我能帮你干点啥不?
乙:她问的啥来着?
丙:她问她能帮你干点啥不
娃不怎么熟练,扮演C的回答: He wants to know what I can do for you。
豆包说:“完美,can也完全正确,语序超稳”
我:????
我以为是国产AI英语不行,去问 ChatGPT:
English test:
Person A: What can i do for you
Person B: What does she want to know?
Person C: ___Student answer as person C: He wants to know what I can do for you
Is the answer correct?
ChatGPT 回答:
Yes, the student’s answer is grammatically correct and appropriate for the situation.
The sentence correctly:
1. Converts a direct question into an indirect statement (“what I can do for you,” not “what can I do for you”).
2. Uses proper tense and word order.
3. Maintains coherent reference across speakers (assuming “he” refers to Person A and “she” to Person B).
Stylistically, a teacher might also accept: “He wants to know what you can do for her.”
这个 He wants to know what you can do for her 把我给整笑了。。。
我怕是我原文没说清楚,又新开了个对话:
English grammar test:
Person A says to B: What can i do for you?
Person B says to C: What does she want to know?
Person C says to B: ___
ChatGPT一本正经的回答:
The blank in Person C’s reply should reflect answering Person B’s question about what Person A wants. A natural response would be:
“She wants to know what she can do for me.”
我直接无语了。于是我决定开麦跟ChatGPT对喷。ChatGPT一直回答:
这是对话分享链接
我怀疑奥特曼是找三哥来标注的数据。为了迎合人连正确错误都不要了。于是我换 Gemini 问,gemini看娃的的回答,说不对。正确的应该是
He wants to know what he can do for you
但是 gemini 没搞明白B已经说了A是个 she 🤣 我怀疑是娃的回答给他误导了,于是新开一个对话,让Gemini直接回答C,gemini答对了
She wants to know what she can do for you
这几轮下来,我感觉可以得出一个结论,AI对 pronoun shift 容易犯错,注意力不够集中。各位拿AI来训练英语的要小心了。
Transformer 是基于概率吐字的,he/she 这种高频词对AI来说大差不差。所以胡诌一个。LLM对于这种强指向、 强因果的关联性基本靠蒙。
这是我已知的LLM的第三个硬缺陷了。
2026-01-21 00:35:00
群里朋友发了一个AI拷打的prompt。做完了一轮觉得没啥,要睡觉了后劲来了。必须得记录些什么。这狗日的语言模型蹦几个金句是真的让人印象深刻
我一直有个毛病是 fear of loss,损失厌恶。
AI提醒我,我能不能用一个必不后悔的方式,先占位?
其实它这句说得有点绕,我觉得更进一步应该说,不能以我当下的情况去评估可能的风险,而是假设将来回头看,会不会为没能冒险感到后悔?
然后又聊到人际关系,我觉得最难处的就当官的和小人。AI提醒我,处处留痕才能克小人。我恍然大悟,原来官僚流程才是小人克星。啊这。😂
反而理解当官的为啥不喜欢“讲真话”,而是要讲权责,讲先例,讲文件,讲上级态度。能打败官僚的只能抬出更多的规定、流程和制度 🤣
我又问,遇到满嘴仁义道德胡搅蛮缠,不讲事实不讲道理的人怎么办,AI这么说的:
如果对方赢得不干净,靠身份、道德话术、权威叙事,则要让对方在完全合法、体面、无人可指责的情况下,被自己的叙事反噬。
呃,好吧。的确你去当面冲撞,taunt都是自寻死路。
拉扯一段时间后,问了AI哪些方向比较好,答:
| 方向 | 原因 | 你的匹配点 |
|---|---|---|
| 数字化/轻资产工具类产品 | 可快速测试,低成本迭代,信息差可利用 | MVP闭环 + 最小代价策略 |
| 社区/兴趣/垂直社交 | 不依赖巨额营销,靠小众高粘性用户增长 | 策略闭环 + 并行模拟用户行为 |
| 教育/技能增值/内容变现 | 经济下行,个人投资教育热度不减,长期价值 | 干扰可控,闭环迭代,信息差变现 |
| AI+效率工具/生产力优化 | 高不确定环境下企业/个人仍需效率工具 | 你的效率和策略优势可直接落地 |
| 供应链/本地化创新产品 | 避免全球不确定性风险 | 可最小投入实验,本地化可控 |
不太适合:高社交不可控、高成本非刚需娱乐项目(比如大规模社交APP赌爆款),尤其在下行周期和政策不确定背景下。
最后,我看到了HN的一篇文章《I'm addicted to being useful》,突然意识到,工程师容易陷入一种喜欢充当"useful"而不是 "valuable"的角色。
你有用,别人就把你用到死。你有价值,别人就尊你三分。
好吧。上价值了是吧。关于价值,最近几年最让我醍醐灌顶的,一是从pg那本《Hackers and Painters》里读到,价值都是劳动创造的。
第二,价值是什么?最近几年也看到个经典段子。上海广州为啥赚钱,人家有好东西卖你;北京为啥有钱?它能让你赚不了钱。
AI一针见血的指出:
价值 ≠ 有意义的想法
价值 ≠ 正确
价值 ≠ 高认知
价值 ≠ 别人听了觉得“牛逼”
价值只取决于一件事:
有没有人愿意、持续地,为它付出代价。
惊呆了。AI甚至抛出一句:负向价值是不可避免的文明防腐层。
我不服,几轮交战后,我承认AI是对的。创造当然是价值第一动力,人类创造的第一个负向价值机制,便是产权。
也就是私有制。
私有制是好是坏,这个话题实属键政101了。简单的说,多劳多得是人类底色,如果干多干少一个样,干好干坏没差别,那么谈何劳动和创造?
产权本身不创造任何东西。
当然,所有的腐败,也是不创造任何价值的。
带着这一轮的恍惚,我不得不呼呼大睡。