MoreRSS

site iconShadow Walker | 松烟阁修改

Where other men are limited by morality or law, remember, everything is permitted. I walk in the darkness to serve the light.
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

Shadow Walker | 松烟阁的 RSS 预览

Weekly Collections 16

2025-05-07 23:05:56

有了MCP,还需要深入研究Agent吗?|唐霜

本文讨论了MCP(大模型与工具连接的通用协议)和Agent技术之间的区别及联系。虽然MCP解决了大模型调用工具的问题,但并未解决理解用户真实意图、规划合理任务、阶段化螺旋式任务执行以及自动执行等问题。相比之下,Agent通过记忆、多轮交流、验证和动态调整等机制来更准确地理解和实现用户目标。文章还提到了MCP与Agent的关系,指出MCP可以提升Agent在工具调用层面的能力,但Agent是一个包含调度系统、执行系统和感知系统的综合体系。此外,文章提到未来可能需要一种新的协议架构来标准化不同厂商Agent之间的交互,并预测随着Agent网络的发展,将形成一个自决策自执行的社会网络。

原文链接有了MCP,还需要深入研究Agent吗?|唐霜


我其实并不看好远程办公

文章讨论了远程办公的利弊,尤其是在后疫情时代。作者刘润指出,尽管远程办公在疫情期间流行起来,并且有很多明显的好处,比如节省通勤时间、提高某些员工的工作效率等,但它也增加了沟通的成本,减少了团队之间的互动和创造力。因此,许多公司开始取消远程办公模式,要求员工返回办公室工作。文章最后提到,真正的创造力往往来源于人与人之间的频繁互动。

原文链接我其实并不看好远程办公


人生的意义是什么?这是我听过最好的答案

本文探讨了现代人的焦虑与困境,以及如何从中国传统智慧中找到解药。作者赵昱鲲指出,我们这一代人具有“西方脑、中国心”的特点,导致在面对心理问题时产生额外的冲突。他强调,人生的意义并非单纯通过科学可以解答,而是需要通过实际行动和内心感受来实现。中国文化中的整体性思维、辩证型思维、正面情感以及对现实生活的重视,为解决现代人的心理问题提供了有效的方法。

原文链接人生的意义是什么?这是我听过最好的答案


怎样避免成为【喂养一线城市】的饲料

说实话我自己就是90后小镇青年在大学毕业后来到大城市工作的,随着2016年美团王兴提出“互联网依靠PC网民及移动互联网用户快速增长的人口红利期已过”,互联网进入了“下半场”,我就知道,我可能是上了最后一班时代的快车

往后的世代,并不是说机会就完全没有,而是当时代从巨大的增量变成存量竞争,意味着市面上存在“跃迁”的机会总量更少,且获得相同机会需要付出的努力要更多,所以为什么你会发现后来职场充斥了内卷、PUA、35岁歧视等乱象...

有人说现在也有很多创新的机会啊,比如AI,但你要知道,至少当前AI的机会和绝大多数普通人是没关系的,比如在AI行业内最引以为豪的就是效能的提升,据说一个AI团队但凡超过40人,在业内都是要被笑话的

所以,在这个“青黄不接”的期间,作为背井离乡来大城市打工的普通人,如果还在用上一代的生活理念来指导你自己,很可能就会被“大城市”吃干抹净,比如陷入“中产返贫”三件套

所以,建议你可以考虑参考以下6个生活建议:

1,存钱,尽可能多存,有多少存多少
我曾数次分享过很多金融界大师给年轻人的建议,比如世界最大的对冲基金之一桥水的创始人达利欧和著名投资人吉姆·罗杰斯,都是建议年轻人要存钱

“要存钱,尽你所能去多存钱,尤其在你年轻的时候。”,“要考虑你的储蓄,想想你有多少存款。思考这个问题的最好方式是想一想我每个月花多少钱?我已经存了多少钱?重视你的储蓄。因为储蓄就是自由和安全。”

2,用存的钱来购买资产
存钱不是最终目的,因为钱会“变毛”,持有现金是为了购买资产,而买资产的第一原则是不要亏损(巴菲特),你需要购买足够好的资产来避免被通货膨胀吃掉,并且接受“慢慢变富”(巴菲特X2)

我个人是在5-10年的维度主要定投黄金和红利资产来抵抗通胀(我个人的想法不构成任何建议),而你也需要找到适合你自己的资产

要知道,赚钱效能是分不同等级的,最高的是资产,其次是土地,再次才是劳动

3,远离会让你亏钱的东西
巴菲特老爷子说投资最重要的原则只有两个,第一是不要亏钱,第二是永远记住第一条原则。现在最可能会让你亏钱的幻觉是什么?是别人告诉你的让你觉得“应该”有的东西,那些到手就贬值的东西,以下列举部分,你可以不同意,也可以评论补充:

市面上99%的房子、非顶级的中低端奢侈品、汽车为主的非必要大件、高溢价潮牌、大部分主动投资类基金、迷信海外学历尤其以就业为目的、不合适的人生伴侣…

那什么会让你绝对不亏呢?其实你肉身来到“大城市”,这里最“值钱”的是你身边那些有趣、励志、经历丰富的朋友,记住,你认识了谁,和谁在一起,才是不论你身处大城市还是老家,都能记住一辈子的财富

“人的本质,是他一切社会关系的总和。”

4,充分利用时间杠杆投资自己
每个人的财富可以相差1万倍,但时间都只有24个小时,而且没有任何办法再次补充。如果你想缩小和巨富们的差距,就只能在公平的赛场和他们竞争,也就是“24小时”这个赛场

他们24小时可以赚1亿美金,但只能读1本书,你24小时只能赚100美金,但你也能读1本书。对普通人来讲,比钱更珍贵的其实就是你的时间,你每天节省下来的时间花在什么地方,很大程度上累积起来的作用,会比加薪更能改变你的生活轨迹

现在停下刷短视频的手,把你的“碎片时间”积累起来,培养你自己的技能,升级思维

5,成功一个能独立生存的公民
我们从小受的教育很大一部分目的就是把你我这样的普通人,培养成一个合格的打工人,这是工业时代的教育形式,它的目的并不是让你成为一个具有独立思考能力,能独立处理自己生活问题的公民

所以真的进入社会后,对于社会运转的基本底层规律,例如法律、医学、经济金融…你如果不是学相关专业,基本是一无所知的,甚至很多相关专业的学生也只是一知半解。所以这些内容你得自己花时间补起来

我就亲眼见过普通人在自己权益遭受侵害时是多么不知所措的,就像徐峥的《逆行人生》扮演的外卖员那样,被车撞倒后第一时间想到的还是赶紧去“干活”,而不是如何维护和保护好自己

6,保持健康比任何事都重要
当时代拔足狂奔的高速发展期过去,各种冲突和乱象都会爆发。但你永远要记住,在任何决策中,身体健康都是第一位的。只要你坚持待在牌桌上,上帝总会重新发牌

举个极端的例子,司马懿不就是靠熬死了曹家三代人最终才有机会建立了晋朝…

记住,生一次大病就可能让你返贫,而且会极大降低你的生活幸福度,尤其是年轻人,不要等真的发生了你才知道健康的优先级

“好好吃饭,坚持锻炼,睡个好觉,几乎能带你走出生活中的任何困境。”

原文链接怎样避免成为【喂养一线城市】的饲料 说实话我自己就是90后 - 即刻App


亲密关系中,不是只有“出轨”才叫背叛

亲密关系中的背叛不只包括出轨,忽视需求、违背承诺等也可能构成背叛,即“依恋伤害”。依恋伤害指在关键时刻感受到的被抛弃或背叛,可能源于看似微不足道的小事,对个人和关系产生负面影响,如颠覆对关系的看法、怀疑自我价值等。修复依恋伤害需双方共同努力,包括理解和表达情绪、重建信任。情绪聚焦疗法(EFT)可有效解决此类问题,重建更成熟的信任。

原文链接亲密关系中,不是只有“出轨”才叫背叛


马老师在阿里云KO演讲引发的思考

2025-05-02 11:55:23

语录(凭借记忆复述,没有任何公司敏感数据)

- 其实很多事情,做的时候不去想过回报,只是相信这是需要去做的,坚持去做,有一天结出的果实,会让我们无比感动。

- 很多人都在担心,AI在带来好处的同时,会对人类社会有超越想象的破坏力。而我是一个坚定的人类相信者,我相信在人与机器的竞争中,人类一定是最后的胜利者。你解决不了,一定有人解决得了;我们这代人解决不了,下一代一定有人能解决得了。

- 前几年,人跟AlphaGo下围棋的时候,很多人觉得很沮丧,连围棋都下不过机器。其实这很正常,围棋就是为人类设计,因为你会下臭棋,因为你会生气,这才是下棋的乐趣,干嘛要跟机器去比谁下围棋下得好。人类要学会的不是与机器抗争,而是去驾驭好AI,用好AI,把AI变成人类的朋友、伙伴,而不是敌人。

- AI是智能,智能是改变世界的工具,而我一直相信,人类拥有机器和动物不具备的,那就是智慧,而智慧是改变智能的思想。智能来自于大脑,而智慧来自于心脏。更何况今天人类对自己大脑的使用还不到7%,明天的AI也许会部分取代或者超越今天人类的智力和很多的能力,但我还是相信无法超越人类的智慧。

- 我们应该帮助人类活得更好、活得更久。我们不是去追求让机器像人,而是让机器去理解人类,像人类一样去思考,做人类做不到的事情。我们应该让机器去破解生命的密码,帮助人类战胜疾病,我相信人类的生命,寿命的长度和质量一定会因为AI有巨大的突破,熬过十年,我们可能就对癌症说拜拜。

- 科技要给每一个普通人的生活带来变革,要让每一个普通的人有尊严。

- 所谓的高科技,绝不仅是征服星辰大海,更应该呵护人间烟火。

我对阿里的印象是刚入职看到几句话:

  • 因为相信,所以简单
  • 我们的征程是星辰大海

先叠个甲:当下的阿里系有诸多争议,甚至招人痛恨。我承认它的不完美,在痛苦的日常工作会对所谓的「阿里味道」心生厌恶和难忍谩骂。总而言之,这篇文章是一段关于自己人生5年的记忆和感慨,无意做「脑袋」、「屁股」相关的口舌之争。

为什么有这篇文章,可能是因为自己很久很久没有被富有人格魅力的领导者的一段公开(半公开)演讲鼓舞到了,马老师不愧是当年的商界领袖,风采依旧。

出于工作的压力,关于这5年的记忆和思考大多离散,索性这篇文章就「意识流」一些,笔随心动,想到哪里算哪里:

  • 从员工的角度来讲,阿里是一家伟大的公司:
    • 信任式管理让自己可以放开手脚;
    • 相对前列的薪酬待遇让人可以安心投入事业;
    • 聚是一团火、散是满天星的情谊和胸怀让人放心交出后背;
  • 看过很多公司的使命、愿景、价值观,我还是更喜欢阿里这种富有江湖侠义气息的:让天下没有难做的生意,科技向善,普惠金融,为了无法「计算」的价值
  • 马老师的高峰低谷,以及他对自己事业和思考的坚持,让我得出了一个结论:能成事之人的不同之处在于眼界、认知、运气和坚持
  • 如果有一天我彻底离开了阿里系,我会给自己和未来保留哪些阿里的印记
    • 信任式的处世之道
    • 相信相信的力量
    • 培养和锻炼眼界、认知和坚持
    • 坚定需要去做的事情,相信美好而微小的改变
  • 如果有一天我彻底离开阿里系,我会去除哪些不好的阿里味道
    • 少一些傲慢,大多数人不需要被「教做人」
    • 杜绝PUA,视人为人,管理不应该基于信息差和权力
    • 少一点会议,多一点异步沟通

先写到这里吧,后面保持更新!

Weekly Collections 15

2025-04-24 23:21:00

破产后的几点建议 - 即刻App

这年头,破边的不要太多。破产后的几点建议:

1.千万不要睡天桥、大街、网吧、公园
2.过夜就去机场大厅,这里不仅有地方睡觉,还供应热水,手机充电甚至连无线网都可以
3.睡醒了直接去麦当劳,找个别人喝剩的咖啡杯,然后去前台无限续杯
4.中午在附近找一家酒店,很多房间退完房门都是开着的,找个没人的房间就能冲个热水澡
5.下午可以去海底捞吃免费的小零食,晚上去盒马超市无限试吃,等服务员将没卖完的面包丢掉时,你就直接打包带走
6.肚子饿了就去肯德基吃别人剩下的汉堡薯条可乐鸡块
7.洗衣服,直接用酒店自助洗衣服,携程四钻的,都有自助洗衣机,带洗衣液,洗完还有烘干机,晚上一般都没啥人用。

原文链接这年头,破边的不要太多。破产后的几点建议: 1. 千万不要 - 即刻App


HongKongDoll,愚人节露脸了,还蛮可爱的 - 即刻App

HongKongDoll,愚人节露脸了,还蛮可爱的


原文链接HongKongDoll,愚人节露脸了,还蛮可爱的 - 即刻App


整理的微信读书上值得反复看的 10 本书 - 即刻App

整理的微信读书上值得反复看的10本书

原文链接整理的微信读书上值得反复看的 10 本书 - 即刻App


MCP 终极指南

本文详细介绍了MCP(Model Context Protocol,模型上下文协议)的背景、意义以及具体实现。文章指出,尽管AI技术发展迅速,但AI应用与已有系统的集成进展缓慢。MCP的出现打破了这一局面,通过提供一个开放、通用且被广泛接受的标准协议,使得AI可以更好地与现有的服务和系统进行集成。文中提到了一些MCP的具体应用案例,包括Cursor MCP、Windsurf MCP等,并对比了Function Calling、AI Agent和MCP三者的区别。此外,文章还提供了如何创建和使用MCP服务器的指南,推荐了一些官方和社区资源。最后,作者强调了MCP对于开发者生态的好处,即服务商可以根据MCP开放自己的API和能力,而开发者则可以通过开源项目快速构建强大的AI应用。

原文链接MCP 终极指南


说点“街头智慧” - 即刻App

说点“街头智慧”

之前在国外,朋友送了一条gucci皮带,但是尺码不合适,这次回来他带回来做调整。

去之前男朋友碎碎念,不知道国内专柜认不认,也没有购买记录什么的,还是国外版。

我说,你别管这些,直接进去,说,“我有一条你家的皮带,但是尺码大了,需要裁剪,能做吗?”

不要用请求式的语气,不用商量,不用讨论,因为你是付钱购买服务,就问他能不能做就行了。 14 0

原文链接说点“街头智慧” 之前在国外,朋友送了一条gucci皮带, - 即刻App


Google 官方提示工程 (Prompt Engineering)白皮书

这篇文档是关于提示工程(Prompt Engineering)的白皮书,介绍了如何通过设计高质量的提示来引导大型语言模型(LLM)生成准确的输出。主要内容包括:

  • 引言:解释了什么是提示工程,强调了编写高效提示的重要性,并指出提示工程是一个迭代过程。
  • 提示工程:详细介绍了各种提示技巧,包括通用提示、单样本/少样本提示、系统上下文和角色提示、回退提示、思维链(CoT)、自我一致性、思维树(ToT)、ReAct和自动提示工程(APE)。
  • 代码提示:展示了如何使用LLM生成代码、解释代码、翻译代码以及调试和审查代码。
  • 多模态提示:简要提及了多模态提示的概念。
  • 最佳实践:提供了多个最佳实践建议,如提供示例、简洁设计、具体说明输出、使用指令而非约束、控制最大令牌长度、在提示中使用变量、尝试不同的输入格式和写作风格、混合类别、适应模型更新、尝试不同的输出格式、与其他提示工程师一起实验、记录各种提示尝试等。

总之,这篇白皮书为读者提供了全面的提示工程技术指南,帮助他们更好地理解和应用这些技术。

原文链接Google 官方提示工程 (Prompt Engineering)白皮书


特写 | 汤唯重生

这篇文章讲述了中国女演员汤唯的职业生涯和个人生活的转折点。故事从她参加李安导演的电影试镜开始,这次经历成为她演艺事业的一个重要起点。26岁时,她在李安导演的新片《色,戒》中饰演女主角王佳芝,这部电影不仅改变了她的职业轨迹,也极大地影响了她的个人生活。

文章通过回顾汤唯的成长背景——单亲家庭长大,与母亲关系亲密,并提及她父亲对她的影响以及童年时期的生活环境。在她成为一名著名演员后,汤唯继续寻求自我成长,不断学习新的知识和技能,即便面对迷茫和不确定性时也不放弃探索自我的机会。这段时期包括出国学习英语、莎士比亚戏剧等。

文中还介绍了汤唯作为女性,在追求艺术创作的同时如何处理个人生活与工作的平衡。特别是她结婚生子后的改变,这使她重新审视了自己对于幸福的定义以及对待工作的方式。随着岁月流逝,汤唯逐渐找到了属于自己的定位:既不过度追逐名利场中的虚幻光芒,也不完全沉溺于私人世界里;而是试图在这两者之间找到一种和谐状态。

此外,文章还探讨了汤唯如何看待自己的表演风格及未来发展方向。即使已经成为了一位成功且受尊敬的女演员,她仍希望能够进一步突破自我,在保持原有魅力的基础上尝试不同类型的角色,以丰富自己的演艺生涯。通过一系列作品如《晚秋》、《黄金时代》等,汤唯展现了不同于以往“天涯孤女”形象的多面性。

总之,这篇文章描绘了一个关于寻找自我价值并最终实现重生的故事。通过对汤唯个人经历及其内心世界的细腻描写,向读者呈现了一位复杂而真实的女性形象,反映了现代女性艺术家面临的挑战与抉择。

原文链接特写 | 汤唯重生


刘润:特朗普的目的,是拆庙

文章主要分析了特朗普发布的“对等关税行政令”的内容和意图。刘润认为,特朗普的目的是通过这一行政令来彻底改变现有的国际贸易体系,尤其是针对美国长期存在的贸易逆差问题。以下是文章的主要内容总结:

  1. 贸易逆差:特朗普明确表示,美国巨大的商品贸易逆差对国家安全和经济构成了非同寻常的威胁,因此宣布国家进入紧急状态。这种紧急状态使得总统获得了临时放大的权力,可以绕开正常程序采取一些特殊措施,例如直接加征关税。
  2. 国家紧急状态:特朗普将贸易逆差归因于制造业空心化、先进制造能力受阻、供应链脆弱以及国防工业依赖外国对手等问题。他强调,这些问题已经严重到需要宣布国家紧急状态的程度。
  3. 世贸组织与对等原则:特朗普批评世贸组织(WTO)的基础假设是错误的,并指出美国在世贸组织框架下一直吃亏。他认为,其他国家并未真正遵守对等原则,导致美国在全球贸易中处于不利地位。
  4. 非关税壁垒:特朗普指责贸易伙伴通过操纵汇率、增值税和其他市场扭曲手段来抑制进口并增加出口。这些非关税壁垒被他视为不公平竞争的手段。
  5. 所有贸易伙伴:特朗普宣布对所有贸易伙伴的所有进口商品征收额外的从价税,初始税率定为10%。他强调这不是针对某个特定国家,而是针对所有贸易伙伴。
  6. 总统修改权:特朗普保留了进一步修改关税的权利,以应对贸易伙伴的报复或纠正非互惠贸易安排。如果贸易伙伴采取重大步骤纠正问题,他会考虑降低关税;反之,如果情况恶化,他会提高关税。
  7. 新世界:文章最后指出,特朗普的行政令标志着多边贸易时代结束,新的世界秩序将充满不确定性。在这种情况下,各国需要重新谈判和调整自己的位置。

总之,特朗普的行政令旨在通过单边行动打破现有的国际贸易体系,重塑一个更加有利于美国的新世界秩序。他的目的不仅仅是解决贸易逆差问题,更是要彻底颠覆现有的国际经济规则。

原文链接刘润:特朗普的目的,是拆庙


如何去除文章的AI味道-月光博客

本文探讨了如何使AI生成的文章看起来更像出自人类之手,主要从以下四个方面给出建议:

  1. 优化提示词:构建详细的提示词框架,包括角色、背景、目标、需求、限制条件及参考示例。这样可以让AI更好地理解任务,并根据具体要求生成内容。
  2. 提供真实素材:向AI提供个人经历、观点等真实材料,帮助其模仿出更贴近人类情感与表达方式的文章。
  3. 打破固定结构:避免使用常见的三段论(引入-分析-总结)以及模式化的语言。可以通过采用第一人称叙述、加入个性化元素等方式来增加文章的独特性。
  4. 个人编辑调整:对AI生成的内容进行后期修改,如删减冗余信息、添加口语化表达等,以增强文章的真实感与亲和力。

总之,虽然AI能够辅助写作过程,但最终文章的灵魂仍需由作者自己赋予。

原文链接如何去除文章的AI味道-月光博客


小本本系列:MCP研究(2)

2025-04-20 12:30:27

MCP的出现,标志着AI从「模型能力竞争」转向「生态协同共建」。它不仅是技术协议,更是一种「连接范式」——通过标准化降低集成成本,通过开源吸引多元参与,最终让AI像水电一样便捷接入各类数据与工具。无论是开发者、企业还是普通用户,MCP都在重塑人与AI、AI与世界的交互方式,其价值将随着智能体生态的爆发持续显现,所以这篇文章打算从MCP来龙去脉和MCP可视化调试两个方面进一步的研究MCP。

1. MCP来龙去脉

1.1 起源:解决LLM集成碎片化的「AI连接器」需求

技术背景:LLM落地的核心痛点

2023年前后,随着ChatGPT等大语言模型(LLM)爆发,企业和开发者发现:

  • 数据孤岛:LLM需接入本地文件、数据库、云端API等多源数据,但每个数据源接口不同(如SQL、REST API、GraphQL),集成成本高;
  • 工具割裂:调用代码补全、支付处理、文档生成等工具需单独开发适配器,且依赖特定厂商(如OpenAI Function Call仅支持自有生态);
  • 厂商锁定:切换LLM供应商(如从GPT-4到Claude)需重新开发整套接口,灵活性差。

Anthropic(由OpenAI前员工创立,专注安全AI的公司)意识到,需要一个标准化协议来统一LLM与外部资源的交互方式,类似USB-C统一电子设备接口,这就是MCP的核心设想。

核心理念:「连接即标准化」

MCP的设计目标不是替代现有API,而是在其上层构建抽象层

  • 对LLM:提供统一的「上下文获取」和「工具调用」接口,无需关心底层数据源格式;
  • 对开发者:只需开发一次MCP服务器,即可接入所有支持协议的客户端(如Claude Desktop、未来的ChatGPT插件系统);
  • 对企业:确保数据在自有基础设施内安全流转,避免敏感数据强制上云(如本地数据库通过MCP服务器加密连接)。

1.2 发展历程:从技术验证到生态扩张(2023-2025年)

萌芽期(2023年):技术原型与核心架构设计

  • Anthropic内部研发:针对Claude模型的企业级应用(如代码审查、文档生成),开发初代MCP原型,解决本地代码库、Jira等工具的接入问题;
  • 关键突破:定义「客户端-服务器」架构,分离LLM宿主(如Claude Desktop)与数据源/工具(MCP服务器),通过标准化JSON格式通信。

正式发布(2024年Q1):开源协议与生态启动

  • 1.0规范开源:Anthropic在GitHub发布MCP v1.0,包含核心接口定义(如context.fetch()获取数据、tool.execute()调用操作)、安全指南(数据加密、权限控制);
  • 首款客户端落地:Claude Desktop内置MCP客户端,支持接入官方服务器(如本地文件、GitHub、Slack),用户可通过自然语言指令让Claude访问本地文档或发送邮件;
  • 开发者工具链:推出MCP SDK(Python/TypeScript)、示例服务器模板、调试工具MCP Inspector,降低入门门槛。

生态扩张期(2024年Q2-2025年):巨头入场与场景爆发

  • 大厂兼容:OpenAI宣布在ChatGPT Plugins中支持MCP协议,谷歌Gemini、阿里云百炼等跟进,形成「多模型+多工具」的互通生态;
  • 垂直领域渗透
    • 代码开发:Cursor、JetBrains等IDE接入MCP,实现AI助手直接读取本地代码、调用Git操作;
    • 企业自动化:Stripe开发MCP服务器,支持自然语言生成支付链接;Zapier将7000+应用封装为MCP工具,用户通过Dify平台拖拽生成跨应用工作流;
    • 本地化部署:金融、医疗企业通过MCP服务器连接内部数据库(如MySQL、HBase),确保数据不出域。
  • 社区爆发:GitHub上MCP相关仓库超3000个,第三方开发者贡献了数据库管理、API代理、硬件控制(如Arduino)等细分场景的服务器。

1.3 技术架构:「客户端-服务器」模型如何实现跨域连接?

核心组件:定义AI世界的「连接语法」

LLM宿主(Host) <-- MCP客户端(Client)--> MCP服务器(Server) <--> 数据/工具
  • MCP宿主(如Claude Desktop、IDE)
    运行LLM的载体,通过MCP客户端向服务器发送请求(如“获取项目文档”“生成API调用”),并将服务器返回的上下文注入LLM prompt。
  • MCP客户端
    遵循协议的通信模块,负责与服务器建立长连接(WebSocket或HTTP/2),支持数据序列化(如将JSON转为LLM可理解的格式)和安全认证(OAuth、API密钥)。
  • MCP服务器
    轻量级程序,封装具体能力(如访问本地文件、调用外部API),需实现3大核心接口:
    • 资源(Resources):暴露数据(如文件内容、数据库查询结果);
    • 工具(Tools):定义可执行操作(如“发送邮件”“创建表格”),支持参数校验和结果解析;
    • 采样(Sampling):允许服务器向LLM请求文本生成(如根据用户输入生成SQL语句)。

关键技术特性

  • 双向交互:不仅LLM调用工具,工具也可主动向LLM求助(如服务器获取原始数据后,让LLM总结分析);
  • 上下文持久化:支持会话级上下文存储(如用户上传多个文件,服务器保留文件列表直至会话结束),避免重复传输;
  • 安全边界:本地服务器仅在授权设备运行(如通过TLS加密本地通信),远程服务器需通过API密钥或OAuth认证,数据传输全程加密。

1.4 生态系统:谁在推动MCP发展?

核心发起者:Anthropic的「开放+控制」策略

  • 技术主导:维护协议规范、官方SDK、Claude集成,但允许社区贡献(如接受第三方服务器PR);
  • 商业化绑定:通过Claude Desktop推广MCP,吸引企业用户购买Anthropic的模型服务,形成「协议+模型」协同。

企业级参与者:从工具厂商到垂直领域巨头

  • 开发工具链:JetBrains(IDE)、Sourcegraph(代码搜索)、Zed(协作编辑器)接入MCP,让AI助手深度整合开发环境;
  • 数据服务:Notion、Google Drive、GitHub提供官方服务器,支持AI直接读取知识库和代码仓库;
  • 垂直领域:医疗领域的Epic Systems开发HIPAA合规服务器,金融领域的Stripe提供支付API封装,确保行业数据安全接入。

开源社区:从小开发者到生态共建

  • 个人开发者:在GitHub提交服务器模板(如本地Markdown文件解析、天气API调用),或优化SDK(如添加Go语言支持);
  • 第三方平台:Dify、Composio等低代码平台内置MCP市场,用户无需代码即可拖拽连接数十个服务器,构建智能体应用;
  • 高校与研究机构:利用MCP进行跨模态研究(如连接图像生成工具Stable Diffusion与文本模型),探索多工具协同的AI工作流。

1.5 现状与影响:从技术协议到AI基础设施

开发者端:效率革命

  • 开发成本下降:传统集成3个工具需3周,使用MCP服务器模板可缩短至1天(Zapier数据);
  • 跨平台复用:同一服务器可接入Claude、ChatGPT、自研LLM,避免重复开发(如Cursor的代码分析服务器同时支持多个模型)。

企业端:降本与安全双收益

  • 中小企业:通过MCP市场快速获取预建服务器(如QuickBooks财务数据接入),无需自建API接口;
  • 大型企业:在私有云部署MCP服务器,连接内部CRM、ERP系统,确保数据本地化(如某银行通过MCP实现AI客服调用内部风控数据库)。

行业影响:重新定义AI工具交互

  • 智能体(Agent)爆发:MCP成为Agent的「神经系统」,支持其连接现实世界(如旅行规划Agent调用航空公司API、酒店预订工具);
  • 去平台化趋势:开发者无需绑定特定LLM或工具平台,通过MCP构建「混合生态」(如用Claude处理文本,用GPT-4生成图像)。

1.6 挑战与未来:从协议到「AI互联网」?

当前挑战

  • 标准化竞争:OpenAI、谷歌可能推出类似协议(如OpenAI的Plugin System),形成技术壁垒,需依赖社区共识维持中立性;
  • 安全合规:跨平台数据流动可能触犯行业合规(如GDPR、医疗HIPAA),需完善服务器认证机制(如Anthropic正在开发的「合规服务器认证计划」);
  • 生态碎片化:垂直领域服务器质量参差(如部分第三方服务器稳定性差),需建立官方审核机制或评分体系。

未来愿景:成为AI时代的「通用接口」

  • 短期(2025-2026):MCP服务器覆盖80%主流企业工具,形成「AI应用商店」模式(如阿里云MCP市场提供千个行业模板);
  • 中期(2027-2030):协议成为ISO标准,支撑跨语言、跨模态的超级智能体(如同时调用CAD、视频编辑、数据分析工具的创意Agent);
  • 长期:若解决AGI级数据交互问题,MCP可能成为「数字世界操作系统」的底层协议,实现「AI即连接」的终极形态。

2. MCP可视化调试

This post is for subscribers only


小本本系列:MCP研究(1)

2025-04-14 09:00:40

一、什么是MCP

MCP 起源于 2024 年 11 月 25 日 Anthropic 发布的文章:Introducing the Model Context Protocol

MCP 就是以更标准的方式让 LLM Chat 使用不同工具,这样应该更容易理解“中间协议层”的概念了。Anthropic 旨在实现 LLM Tool Call 的标准。

MCP (Model Context Protocol,模型上下文协议)定义了应用程序和 AI 模型之间交换上下文信息的方式。这使得开发者能够以一致的方式将各种数据源、工具和功能连接到 AI 模型(一个中间协议层),就像 USB-C 让不同设备能够通过相同的接口连接一样。MCP 的目标是创建一个通用标准,使 AI 应用程序的开发和集成变得更加简单和统一。

二、为什么需要MCP

MCP 主解决的一个问题是:如何将 AI 模型和我们已有系统集成。

在跟 LLM 交互的时候,为了显著提升模型的能力需要提供更结构化的上下文信息,例如提供一些更具体、实时的信息(比如本地文件,数据库,一些网络实时信息等)给模型,这样模型更容易理解真实场景中的问题。想象一下没有 MCP 之前会怎么做?我们会人工从数据库中筛选或者使用工具检索可能需要的信息复制到 prompt 中,随着要解决的问题越来越复杂,人工参与这样的数据交互过程变得越来越难以实现。

许多 LLM 如 OpenAI、Google、Qwen 等引入了 function call 功能,这一机制允许模型在需要时调用预定义的函数来获取数据或执行操作显著提升了自动化水平,当前大热门 AI Agent 也具备类似的能力。那么 function calling、AI Agent、MCP 这三者之间有什么区别:

  • Function Calling,Function Calling 指的是 AI 模型根据上下文自动执行函数的机制。Function Calling 充当了 AI 模型与外部系统之间的桥梁,不同的模型有不同的 Function Calling 实现,代码集成的方式也不一样。由不同的 AI 模型平台来定义和实现。如果我们使用 Function Calling,那么需要通过代码给 LLM 提供一组 functions,并且提供清晰的函数描述、函数输入和输出,那么 LLM 就可以根据清晰的结构化数据进行推理,执行函数。Function Calling 的缺点在于处理不好多轮对话和复杂需求,适合边界清晰、描述明确的任务。如果需要处理很多的任务,那么 Function Calling 的代码比较难维护。
  • Model Context Protocol (MCP),MCP 是一个标准协议,如同电子设备的 Type C 协议(可以充电也可以传输数据),使 AI 模型能够与不同的 API 和数据源无缝交互。MCP 旨在替换碎片化的 Agent 代码集成,从而使 AI 系统更可靠,更有效。通过建立通用标准,服务商可以基于协议来推出它们自己服务的 AI 能力,从而支持开发者更快的构建更强大的 AI 应用。开发者也不需要重复造轮子,通过开源项目可以建立强大的 AI Agent 生态。MCP 可以在不同的应用/服务之间保持上下文,从而增强整体自主执行任务的能力。可以理解为 MCP 是将不同任务进行分层处理,每一层都提供特定的能力、描述和限制。而 MCP Client 端根据不同的任务判断,选择是否需要调用某个能力,然后通过每层的输入和输出,构建一个可以处理复杂、多步对话和统一上下文的 Agent。
  • AI Agent,AI Agent 是一个智能系统,它可以自主运行以实现特定目标。传统的 AI 聊天仅提供建议或者需要手动执行任务,AI Agent 则可以分析具体情况,做出决策,并自行采取行动。AI Agent 可以利用 MCP 提供的功能描述来理解更多的上下文,并在各种平台/服务自动执行任务。

基于 AI 做编程和应用开发时,开发者都希望将数据、系统连接到模型的这个环节可以更智能、更统一。Anthropic 基于这样的痛点设计了 MCP,充当 AI 模型的「万能转接头」,让 LLM 能轻松的获取数据或者调用工具。更具体的说 MCP 的优势在于:

  • 生态,MCP 提供很多现成的插件,你的 AI 可以直接使用。
  • 统一性,不限制于特定的 AI 模型,任何支持 MCP 的模型都可以灵活切换。
  • 数据安全,你的敏感数据留在自己的环境中,不必全部上传。

三、怎么使用MCP

在深入学习 MCP 技术原理之前,为了能够对 MCP 比较有体感,可以先了解怎么使用 MCP。Claude Desktop 是比较早支持 MCP 协议的,但是由于众所周知的原因,在国内使用 Claude 并不方便,可以参考它的教程:For Claude Desktop Users - Model Context Protocol

关于怎么使用 MCP,我打算以 OpenCat 为例介绍一下,如何采用 OpenCat + Qwen 组合使用 MCP:

  1. 关于 OpenCat 下载使用可以看这里:https://opencat.app/zh-Hans/
  2. 关于 Qwen API 配置使用可以参考文章「在Obsidian搭建通义千问AI助手」中的搭建步骤
  3. OpenCat 配置 MCP
  1. 选择MCP工具并在prompt种触发使用MCP工具

四、MCP架构分析

MCP 遵循客户端-服务器架构(client-server),其中包含以下几个核心概念:

  • MCP 主机(MCP Hosts):发起请求的 LLM 应用程序(例如 Claude Desktop、OpenCat、IDE 或 AI 工具)。
  • MCP 客户端(MCP Clients):在 MCP 主机程序内部,与 MCP server 保持 1:1 的连接。
  • MCP 服务器(MCP Servers):为 MCP client 提供上下文、工具和 prompt 信息。
  • 本地资源(Local Data Source):本地计算机中可供 MCP server 安全访问的资源(例如文件、数据库)。
  • 远程资源(Remote Service):MCP server 可以连接到的远程资源(例如通过 API)。

MCP Client

MCP client 充当 LLM 和 MCP server 之间的桥梁,MCP client 的工作流程如下:

  • MCP client 首先从 MCP server 获取可用的工具列表。
  • 将用户的查询连同工具描述通过 function calling 一起发送给 LLM。
  • LLM 决定是否需要使用工具以及使用哪些工具。
  • 如果需要使用工具,MCP client 会通过 MCP server 执行相应的工具调用。
  • 工具调用的结果会被发送回 LLM。
  • LLM 基于所有信息生成自然语言响应。
  • 最后将响应展示给用户。

MCP Server

MCP server 是 MCP 架构中的关键组件,它可以提供 3 种主要类型的功能:

  • 资源(Resources):类似文件的数据,可以被客户端读取,如 API 响应或文件内容。
  • 工具(Tools):可以被 LLM 调用的函数(需要用户批准)。
  • 提示(Prompts):预先编写的模板,帮助用户完成特定任务。

这些功能使 MCP server 能够为 AI 应用提供丰富的上下文信息和操作能力,从而增强 LLM 的实用性和灵活性。

五、MCP原理

LLM 调用 MCP 的过程可以分为两个步骤:

  1. 由 LLM(Qwen)确定使用哪些 MCP Server
  2. 执行对应的 MCP Server 并对执行结果进行重新处理

为了更加深入理解 MCP 原理,我打算从 MCP 协议的源码进行分析:

LLM 如何确定使用哪些工具

根据 MCP 官方提供的 client example 进行源码分析,其中删除了一些不影响阅读逻辑的异常控制代码,通过阅读代码,可以发现模型是通过 prompt 来确定当前有哪些工具,通过将工具的具体使用描述以文本的形式传递给模型,供模型了解有哪些工具以及结合实时情况进行选择,具体情况可以参考代码中的注释:

###################  
# 此处省略无关的代码 #
###################
async def start(self):
    # 1.初始化所有的 mcp server
    for server in self.servers:
        await server.initialize()
​
    # 2.获取所有的 tools 命名为 all_tools
    all_tools = []
    for server in self.servers:
        tools = await server.list_tools()
        all_tools.extend(tools)
​
    # 3.将所有的 tools 的功能描述格式化成字符串供 LLM 使用,tool.format_for_llm() 我放到了这段代码最后,方便阅读。
    tools_description = "\n".join(
        [tool.format_for_llm() for tool in all_tools]
    )
​
    # 4.基于 prompt 和当前所有工具的信息询问 LLM(Qwen)应该使用哪些工具。
    system_message = (
        "You are a helpful assistant with access to these tools:\n\n"
        f"{tools_description}\n"
        "Choose the appropriate tool based on the user's question. "
        "If no tool is needed, reply directly.\n\n"
        "IMPORTANT: When you need to use a tool, you must ONLY respond with "
        "the exact JSON object format below, nothing else:\n"
        "{\n"
        '    "tool": "tool-name",\n'
        '    "arguments": {\n'
        '        "argument-name": "value"\n'
        "    }\n"
        "}\n\n"
        "After receiving a tool's response:\n"
        "1. Transform the raw data into a natural, conversational response\n"
        "2. Keep responses concise but informative\n"
        "3. Focus on the most relevant information\n"
        "4. Use appropriate context from the user's question\n"
        "5. Avoid simply repeating the raw data\n\n"
        "Please use only the tools that are explicitly defined above."
    )
    messages = [{"role": "system", "content": system_message}]
​
    while True:
        # 5.将用户输入消息进行聚合
        messages.append({"role": "user", "content": user_input})
​
        # 6.将 system_message 和用户消息输入一起发送给 LLM
        llm_response = self.llm_client.get_response(messages)
​
		# ...
    
​
class Tool:
    """Represents a tool with its properties and formatting."""
​
    def __init__(
        self, name: str, description: str, input_schema: dict[str, Any]
    ) -> None:
        self.name: str = name
        self.description: str = description
        self.input_schema: dict[str, Any] = input_schema
​
    # 把工具的名字 / 工具的用途(description)和工具所需要的参数(args_desc)转化为文本
    def format_for_llm(self) -> str:
        """Format tool information for LLM.
​
        Returns:
            A formatted string describing the tool.
        """
        args_desc = []
        if "properties" in self.input_schema:
            for param_name, param_info in self.input_schema["properties"].items():
                arg_desc = (
                    f"- {param_name}: {param_info.get('description', 'No description')}"
                )
                if param_name in self.input_schema.get("required", []):
                    arg_desc += " (required)"
                args_desc.append(arg_desc)
​
        return f"""
Tool: {self.name}
Description: {self.description}
Arguments:
{chr(10).join(args_desc)}

还有一个地方需要分析清楚即 Tool 的描述和代码中的 input_schema 是怎么获取的?这个问题需要看一下 MCP 协议的实现(这里我分析的是 Python SDK 源代码),MCP Python SDK 使用装饰器 @mcp.tool() 来装饰函数时,对应的 namedescription 等其实直接源自用户定义函数的函数名以及函数的 docstring 等,源代码如下:

@classmethod
def from_function(
    cls,
    fn: Callable,
    name: str | None = None,
    description: str | None = None,
    context_kwarg: str | None = None,
) -> "Tool":
    """Create a Tool from a function."""
    func_name = name or fn.__name__ # 获取函数名
​
    if func_name == "<lambda>":
        raise ValueError("You must provide a name for lambda functions")
​
    func_doc = description or fn.__doc__ or "" # 获取函数 docstring
    is_async = inspect.iscoroutinefunction(fn)
    
    ... # 更多请参考原始代码...

可以看出 LLM 使用工具是通过 prompt engineering,即提供所有工具的结构化描述和 few-shot 的 example 来确定该使用哪些工具。另一方面,大模型厂商(如Qwen)肯定做了专门的训练,确保大模型更能理解工具的 prompt 以及输出结构化的 tool call json 代码。

工具执行与结果反馈机制

工具的执行就比较简单和直接,把 system prompt(指令与工具调用描述)和用户消息一起发送给模型,然后接收模型的回复。当模型分析用户请求后,它会决定是否需要调用工具:

  1. 无需工具时:模型直接生成自然语言回复。
  2. 需要工具时:模型输出结构化 JSON 格式的工具调用请求。

如果回复中包含结构化 JSON 格式的工具调用请求,则客户端会根据这个 json 代码执行对应的工具。具体的实现逻辑都在 {python} process_llm_response 中,代码,逻辑非常简单。

如果模型执行了 tool call,则工具执行的结果 result 会和 system prompt 和用户消息一起重新发送给模型,请求模型生成最终回复。

如果 tool call 的 json 代码存在问题或者模型产生了幻觉怎么办呢?通过阅读代码发现,我们会 skip 掉无效的调用请求。

执行相关的代码与注释如下:

async def start(self):
	# 省略无关的代码​
    while True:
        # 假设这里已经处理了用户消息输入.
        messages.append({"role": "user", "content": user_input})
​
        # 获取 LLM 的输出
        llm_response = self.llm_client.get_response(messages)
​
        # 处理 LLM 的输出(如果有 tool call 则执行对应的工具)
        result = await self.process_llm_response(llm_response)
​
        # 如果 result 与 llm_response 不同,说明执行了 tool call (有额外信息了)
        # 则将 tool call 的结果重新发送给 LLM 进行处理。
        if result != llm_response:
            messages.append({"role": "assistant", "content": llm_response})
            messages.append({"role": "system", "content": result})
​
            final_response = self.llm_client.get_response(messages)
            logging.info("\nFinal response: %s", final_response)
            messages.append(
                {"role": "assistant", "content": final_response}
            )
        # 否则代表没有执行 tool call,则直接将 LLM 的输出返回给用户。
        else:
            messages.append({"role": "assistant", "content": llm_response})    

结合这部分原理分析:

  • 工具文档至关重要 - 模型通过工具描述文本来理解和选择工具,因此精心编写工具的名称、docstring 和参数说明至关重要。
  • 由于 MCP 的选择是基于 prompt 的,所以任何模型其实都适配 MCP,只要你能提供对应的工具描述。但是当你使用非 Claude 模型时,MCP 使用的效果和体验难以保证(没有做专门的训练)。

六、MCP开发实践

我开源了一个 MCP Repo,以 OpenCat 为 MCP Host,支持 Weather 数据查询的 MCP Server 和 MCP Client([email protected]/edonyzpc/MCP.git)。

1. MCP Server

MCP Server 的开发可以参考 Server 章节:MCP/servers/weather-server-mcp

2. MCP Client

MCP Client 的开发可以参考 Client 章节:MCP/clients/mcp-client

七、扩展研究

MCP的初学者还缺少两部分:1. MCP的来龙去脉;2.MCP协议的观测和调试。篇幅限制,留待下次分解,Stay Tuned

References

  1. Introduction - Model Context Protocol
  2. 🚀一秒看懂MCP
  3. What is Model Context Protocol? Why it matters? – Purnananda Behera
  4. Crypto AI的下一个催化剂?详解「AI届新宠儿」MCP协议
  5. 一文看懂:MCP(大模型上下文协议)
  6. MCP (Model Context Protocol),一篇就够了
  7. Model Context Protocol (MCP) - Anthropic
  8. MCP 终极指南
  9. 🔗What is Model Context Protocol? (MCP) Architecture Overview

Weekly Collections 14

2025-04-13 17:33:07

《📖人一旦开了窍,人生就开了挂》书摘 - 即刻App

允许一切如其所是,也允许一切事与愿违

如果你没有按你真正想要的那种方式去生活,你的灵魂每天都会喊疼

成熟的重要标志是拥有翻篇的能力。

谁能给你带来最多的平静,谁就应该得到你最多的时间。

命运选择给某某好运气,并不一定是他有多优秀,而是他在遇到问题时,没有躲。

行动是产生结果的唯一方式,可惜的是,大多数人在“想”的过程中就已经消耗了100%的精力。

失败不是成功之母,成功才是成功之母。

不要依赖别人灌输给你的想法和观念去生活,不要遵循别人设计好的软件使用习惯去应用,也不要沉迷于通过消费、娱乐来获取多巴胺。

我们无法在消极的想法里活出积极的人生,也无法在拧巴的状态中活出通透的人生

很多事情做不成,缺的不是时间和机会,而是专心致志。

如果道路本身很美,不要问它通往何方。——要做过程热爱、有生命力的事情

"累了就躺一躺,不丢人“——雷军老师 68 17

原文链接《📖人一旦开了窍,人生就开了挂》书摘 允许一切如其所是, - 即刻App


很多事情确实经历过一遍以后,再经历就很从容了 - 即刻App

很多事情确实经历过一遍以后,再经历就很从容了。每一段过往都是成长的养料,我们要努力做的就是尽可能从中汲取足够多的营养。

原文链接很多事情确实经历过一遍以后,再经历就很从容了。每一段过往都是 - 即刻App


有个事儿挺有意思的 - 即刻App

有个事儿挺有意思的。

我们平时走在路上,看到陌生人,如果没什么事是并不会主动打招呼的对吧?每天有无数人擦肩而过。

但我有个狗。我有个狗呢,事情就发生了一些变化。带狗出门,迎面碰上的人有30%会看着我的狗,说哈喽。

我也不例外。外出看到狗,我也会情不自禁说:小狗!

和陌生人打招呼会很奇怪,但和陌生狗不会。

在一些场景下,人常说的人不如狗,或者人比狗狗,是不是也是错把投射当真实呢?

哈!既渴望连接又恐惧接触的城市穴居人呐。

原文链接有个事儿挺有意思的。 我们平时走在路上,看到陌生人,如果没 - 即刻App


为什么靠 AI“什么都懂一点”,却并不能真正变专业?

现在,很多人都对 AI 抱着一个幻想:我可能不是很专业,但如果借助 AI,不就能轻松变成专业人士了吗?确实,AI 在某些方面给了我们这样的错觉,比如稍微懂一点编程的人,可以轻松地用 AI 写出一个小程序的原型;不怎么懂设计的人,可以通过 AI 快速生成看起来不错的海报。然而,这种“什么都懂一点”再靠 AI 加持就能变专业的想法,其实是一种误解,甚至可能是一种危险的误解。

AI 究竟提升了什么?

从根本上讲,AI 工具对用户的帮助主要集中在两个方面:

1. 提升能力的下限 什么叫“能力的下限”?就是说,以前一个完全不懂绘画的人根本画不出东西,现在借助 AI,可以迅速生成一幅看起来还不错的插画。原本根本不会写代码的人,也能通过 AI 生成基础的网页代码,实现简单的功能。这就是 AI 提高了普通人甚至零基础人士入门门槛的作用。

2. 提升专业人士的效率 如果你本来就是某个领域的专家,比如一个资深的软件开发者或者专业的医疗研究人员,那么 AI 的作用就更明显了。它能自动化大量重复性的工作,帮你快速生成需要反复编写的基础代码或自动整理医疗数据的初步报告,让你能把更多的时间和精力集中在真正需要人类思考和决策的核心工作上。这种情况下,AI 的价值是巨大的,它不仅提升了效率,还能让你原本就高水平的专业能力得到更大化的发挥。

但为什么 AI 无法真正将非专业人士变成专业人士?

原因主要在于 AI 自身的特性和使用者的水平局限:

AI 存在“幻觉”,结果不稳定

AI(特别是像 ChatGPT 这样的大语言模型)生成的结果存在着“幻觉”(hallucination),通俗点说就是“胡编乱造”的问题。哪怕 AI 在 99% 的情况下都生成正确且高质量的结果,但只要有 1% 的错误或低质量结果,对于一些容错率极低的领域来说,比如医疗、法律或财务领域,都可能造成严重甚至致命的后果。

举个简单的例子:

  • 如果你用 AI 画插图,偶尔出现画出来的人多一个手指头,也许无伤大雅。
  • 但如果用 AI 生成医疗报告,漏掉或者多出关键的诊断信息,可能就关系到一个人的生命安全。

因此,专业人士对 AI 生成结果的审核和判断极为关键,而非专业人士根本不具备这种审核能力。

非专业人士的“分辨力”不足

对于某个专业领域,我们可以简单用 0 到 100 的分数来表示一个人的专业水平:

  • 一个专业人士可能在 80 分甚至 90 分以上。
  • 一个“懂一点”的非专业人士可能只有 50-60 分。

当非专业人士使用 AI 时,即便 AI 能帮助他实现 60-80 分的效果,这个人实际上很难准确分辨出 60 分和 80 分之间的差距,更无法判断 AI 给出的某个具体结果是高质量的专业输出,还是看起来不错但实际上漏洞百出的低质输出。

例如,你稍微懂一点编程,借助 AI 能写个小程序或简单的网页。但一旦需要写出复杂且稳定的生产级系统,你就难以识别 AI 生成的代码是否存在严重漏洞,哪怕 AI 的输出表面上看起来似乎不错。这时候你做的程序,可能仅仅是看起来好一点的“玩具”,而不是专业标准的软件。

专业人士如何正确利用 AI?

对于真正的专业人士,情况完全不同。他们在使用 AI 时会:

  • 知道 AI 能力的边界在哪里,擅长什么不擅长什么
  • 对于 AI 能力不足的地方能借助外部工具弥补,比如 AI 数学不好就让 AI 生成代码去运算,或者让 AI 生成 Excel 的函数到 Excel 里面辅助计算
  • 将复杂任务拆解成 AI 能力范围之内的小模块,每个模块通过 AI 辅助快速完成;比如 AI 一次无法很好的翻译很长的文本,就把长文拆成几个部分分开翻译
  • 对 AI 的输出结果进行高水平的审核、修改和优化,保证结果的可靠性和专业性;比如专业的软件工程师会对 AI 写的代码进行审查,另外写单元测试验证代码
  • 运用 AI 去除重复性劳动,从而集中精力解决更有创造性和难度的任务。

给懂一点的人群的建议

因此,对于“懂一点但不精”的用户群体来说,重要的不是寄希望于 AI 帮你实现“一键专业化”,而是:

  • 用 AI 加速学习,帮助你快速掌握基础知识,跨过初学门槛;
  • 学会“质疑”和审慎对待 AI 生成的结果,不盲目信任 AI;
  • 不断提高自身在该领域的基础认知,逐渐提升自己的判断力和审美力。

正如 @同声翻译樱桃羊 说的:

AI 是给老虎添翼,也让猪能飞上一小会儿,但是并不能让猪变成老虎

专业的能力,就像是你的地图和驾驶技术——只有当你知道自己要去哪里,知道路上可能遇到什么危险,并且遇到紧急情况能手动接管,才能真正驾驭 AI 的力量,安全地驶向你期望的目的地。

AI 时代,并不是降低了对专业的需求,相反,它提升了“专业判断力”的价值。

原文链接为什么靠 AI“什么都懂一点”,却并不能真正变专业?