2025-05-07 23:05:56
本文讨论了MCP(大模型与工具连接的通用协议)和Agent技术之间的区别及联系。虽然MCP解决了大模型调用工具的问题,但并未解决理解用户真实意图、规划合理任务、阶段化螺旋式任务执行以及自动执行等问题。相比之下,Agent通过记忆、多轮交流、验证和动态调整等机制来更准确地理解和实现用户目标。文章还提到了MCP与Agent的关系,指出MCP可以提升Agent在工具调用层面的能力,但Agent是一个包含调度系统、执行系统和感知系统的综合体系。此外,文章提到未来可能需要一种新的协议架构来标准化不同厂商Agent之间的交互,并预测随着Agent网络的发展,将形成一个自决策自执行的社会网络。
文章讨论了远程办公的利弊,尤其是在后疫情时代。作者刘润指出,尽管远程办公在疫情期间流行起来,并且有很多明显的好处,比如节省通勤时间、提高某些员工的工作效率等,但它也增加了沟通的成本,减少了团队之间的互动和创造力。因此,许多公司开始取消远程办公模式,要求员工返回办公室工作。文章最后提到,真正的创造力往往来源于人与人之间的频繁互动。
原文链接:我其实并不看好远程办公
本文探讨了现代人的焦虑与困境,以及如何从中国传统智慧中找到解药。作者赵昱鲲指出,我们这一代人具有“西方脑、中国心”的特点,导致在面对心理问题时产生额外的冲突。他强调,人生的意义并非单纯通过科学可以解答,而是需要通过实际行动和内心感受来实现。中国文化中的整体性思维、辩证型思维、正面情感以及对现实生活的重视,为解决现代人的心理问题提供了有效的方法。
原文链接:人生的意义是什么?这是我听过最好的答案
说实话我自己就是90后小镇青年在大学毕业后来到大城市工作的,随着2016年美团王兴提出“互联网依靠PC网民及移动互联网用户快速增长的人口红利期已过”,互联网进入了“下半场”,我就知道,我可能是上了最后一班时代的快车
往后的世代,并不是说机会就完全没有,而是当时代从巨大的增量变成存量竞争,意味着市面上存在“跃迁”的机会总量更少,且获得相同机会需要付出的努力要更多,所以为什么你会发现后来职场充斥了内卷、PUA、35岁歧视等乱象...
有人说现在也有很多创新的机会啊,比如AI,但你要知道,至少当前AI的机会和绝大多数普通人是没关系的,比如在AI行业内最引以为豪的就是效能的提升,据说一个AI团队但凡超过40人,在业内都是要被笑话的
所以,在这个“青黄不接”的期间,作为背井离乡来大城市打工的普通人,如果还在用上一代的生活理念来指导你自己,很可能就会被“大城市”吃干抹净,比如陷入“中产返贫”三件套
所以,建议你可以考虑参考以下6个生活建议:
1,存钱,尽可能多存,有多少存多少
我曾数次分享过很多金融界大师给年轻人的建议,比如世界最大的对冲基金之一桥水的创始人达利欧和著名投资人吉姆·罗杰斯,都是建议年轻人要存钱
“要存钱,尽你所能去多存钱,尤其在你年轻的时候。”,“要考虑你的储蓄,想想你有多少存款。思考这个问题的最好方式是想一想我每个月花多少钱?我已经存了多少钱?重视你的储蓄。因为储蓄就是自由和安全。”
2,用存的钱来购买资产
存钱不是最终目的,因为钱会“变毛”,持有现金是为了购买资产,而买资产的第一原则是不要亏损(巴菲特),你需要购买足够好的资产来避免被通货膨胀吃掉,并且接受“慢慢变富”(巴菲特X2)
我个人是在5-10年的维度主要定投黄金和红利资产来抵抗通胀(我个人的想法不构成任何建议),而你也需要找到适合你自己的资产
要知道,赚钱效能是分不同等级的,最高的是资产,其次是土地,再次才是劳动
3,远离会让你亏钱的东西
巴菲特老爷子说投资最重要的原则只有两个,第一是不要亏钱,第二是永远记住第一条原则。现在最可能会让你亏钱的幻觉是什么?是别人告诉你的让你觉得“应该”有的东西,那些到手就贬值的东西,以下列举部分,你可以不同意,也可以评论补充:
市面上99%的房子、非顶级的中低端奢侈品、汽车为主的非必要大件、高溢价潮牌、大部分主动投资类基金、迷信海外学历尤其以就业为目的、不合适的人生伴侣…
那什么会让你绝对不亏呢?其实你肉身来到“大城市”,这里最“值钱”的是你身边那些有趣、励志、经历丰富的朋友,记住,你认识了谁,和谁在一起,才是不论你身处大城市还是老家,都能记住一辈子的财富
“人的本质,是他一切社会关系的总和。”
4,充分利用时间杠杆投资自己
每个人的财富可以相差1万倍,但时间都只有24个小时,而且没有任何办法再次补充。如果你想缩小和巨富们的差距,就只能在公平的赛场和他们竞争,也就是“24小时”这个赛场
他们24小时可以赚1亿美金,但只能读1本书,你24小时只能赚100美金,但你也能读1本书。对普通人来讲,比钱更珍贵的其实就是你的时间,你每天节省下来的时间花在什么地方,很大程度上累积起来的作用,会比加薪更能改变你的生活轨迹
现在停下刷短视频的手,把你的“碎片时间”积累起来,培养你自己的技能,升级思维
5,成功一个能独立生存的公民
我们从小受的教育很大一部分目的就是把你我这样的普通人,培养成一个合格的打工人,这是工业时代的教育形式,它的目的并不是让你成为一个具有独立思考能力,能独立处理自己生活问题的公民
所以真的进入社会后,对于社会运转的基本底层规律,例如法律、医学、经济金融…你如果不是学相关专业,基本是一无所知的,甚至很多相关专业的学生也只是一知半解。所以这些内容你得自己花时间补起来
我就亲眼见过普通人在自己权益遭受侵害时是多么不知所措的,就像徐峥的《逆行人生》扮演的外卖员那样,被车撞倒后第一时间想到的还是赶紧去“干活”,而不是如何维护和保护好自己
6,保持健康比任何事都重要
当时代拔足狂奔的高速发展期过去,各种冲突和乱象都会爆发。但你永远要记住,在任何决策中,身体健康都是第一位的。只要你坚持待在牌桌上,上帝总会重新发牌
举个极端的例子,司马懿不就是靠熬死了曹家三代人最终才有机会建立了晋朝…
记住,生一次大病就可能让你返贫,而且会极大降低你的生活幸福度,尤其是年轻人,不要等真的发生了你才知道健康的优先级
“好好吃饭,坚持锻炼,睡个好觉,几乎能带你走出生活中的任何困境。”
原文链接:怎样避免成为【喂养一线城市】的饲料 说实话我自己就是90后 - 即刻App
亲密关系中的背叛不只包括出轨,忽视需求、违背承诺等也可能构成背叛,即“依恋伤害”。依恋伤害指在关键时刻感受到的被抛弃或背叛,可能源于看似微不足道的小事,对个人和关系产生负面影响,如颠覆对关系的看法、怀疑自我价值等。修复依恋伤害需双方共同努力,包括理解和表达情绪、重建信任。情绪聚焦疗法(EFT)可有效解决此类问题,重建更成熟的信任。
原文链接:亲密关系中,不是只有“出轨”才叫背叛
2025-05-02 11:55:23
语录(凭借记忆复述,没有任何公司敏感数据)
- 其实很多事情,做的时候不去想过回报,只是相信这是需要去做的,坚持去做,有一天结出的果实,会让我们无比感动。
- 很多人都在担心,AI在带来好处的同时,会对人类社会有超越想象的破坏力。而我是一个坚定的人类相信者,我相信在人与机器的竞争中,人类一定是最后的胜利者。你解决不了,一定有人解决得了;我们这代人解决不了,下一代一定有人能解决得了。
- 前几年,人跟AlphaGo下围棋的时候,很多人觉得很沮丧,连围棋都下不过机器。其实这很正常,围棋就是为人类设计,因为你会下臭棋,因为你会生气,这才是下棋的乐趣,干嘛要跟机器去比谁下围棋下得好。人类要学会的不是与机器抗争,而是去驾驭好AI,用好AI,把AI变成人类的朋友、伙伴,而不是敌人。
- AI是智能,智能是改变世界的工具,而我一直相信,人类拥有机器和动物不具备的,那就是智慧,而智慧是改变智能的思想。智能来自于大脑,而智慧来自于心脏。更何况今天人类对自己大脑的使用还不到7%,明天的AI也许会部分取代或者超越今天人类的智力和很多的能力,但我还是相信无法超越人类的智慧。
- 我们应该帮助人类活得更好、活得更久。我们不是去追求让机器像人,而是让机器去理解人类,像人类一样去思考,做人类做不到的事情。我们应该让机器去破解生命的密码,帮助人类战胜疾病,我相信人类的生命,寿命的长度和质量一定会因为AI有巨大的突破,熬过十年,我们可能就对癌症说拜拜。
- 科技要给每一个普通人的生活带来变革,要让每一个普通的人有尊严。
- 所谓的高科技,绝不仅是征服星辰大海,更应该呵护人间烟火。
我对阿里的印象是刚入职看到几句话:
先叠个甲:当下的阿里系有诸多争议,甚至招人痛恨。我承认它的不完美,在痛苦的日常工作会对所谓的「阿里味道」心生厌恶和难忍谩骂。总而言之,这篇文章是一段关于自己人生5年的记忆和感慨,无意做「脑袋」、「屁股」相关的口舌之争。
为什么有这篇文章,可能是因为自己很久很久没有被富有人格魅力的领导者的一段公开(半公开)演讲鼓舞到了,马老师不愧是当年的商界领袖,风采依旧。
出于工作的压力,关于这5年的记忆和思考大多离散,索性这篇文章就「意识流」一些,笔随心动,想到哪里算哪里:
先写到这里吧,后面保持更新!
2025-04-24 23:21:00
这年头,破边的不要太多。破产后的几点建议:
1.千万不要睡天桥、大街、网吧、公园
2.过夜就去机场大厅,这里不仅有地方睡觉,还供应热水,手机充电甚至连无线网都可以
3.睡醒了直接去麦当劳,找个别人喝剩的咖啡杯,然后去前台无限续杯
4.中午在附近找一家酒店,很多房间退完房门都是开着的,找个没人的房间就能冲个热水澡
5.下午可以去海底捞吃免费的小零食,晚上去盒马超市无限试吃,等服务员将没卖完的面包丢掉时,你就直接打包带走
6.肚子饿了就去肯德基吃别人剩下的汉堡薯条可乐鸡块
7.洗衣服,直接用酒店自助洗衣服,携程四钻的,都有自助洗衣机,带洗衣液,洗完还有烘干机,晚上一般都没啥人用。
原文链接:这年头,破边的不要太多。破产后的几点建议: 1. 千万不要 - 即刻App
HongKongDoll,愚人节露脸了,还蛮可爱的
原文链接:HongKongDoll,愚人节露脸了,还蛮可爱的 - 即刻App
原文链接:整理的微信读书上值得反复看的 10 本书 - 即刻App
本文详细介绍了MCP(Model Context Protocol,模型上下文协议)的背景、意义以及具体实现。文章指出,尽管AI技术发展迅速,但AI应用与已有系统的集成进展缓慢。MCP的出现打破了这一局面,通过提供一个开放、通用且被广泛接受的标准协议,使得AI可以更好地与现有的服务和系统进行集成。文中提到了一些MCP的具体应用案例,包括Cursor MCP、Windsurf MCP等,并对比了Function Calling、AI Agent和MCP三者的区别。此外,文章还提供了如何创建和使用MCP服务器的指南,推荐了一些官方和社区资源。最后,作者强调了MCP对于开发者生态的好处,即服务商可以根据MCP开放自己的API和能力,而开发者则可以通过开源项目快速构建强大的AI应用。
原文链接:MCP 终极指南
说点“街头智慧”
之前在国外,朋友送了一条gucci皮带,但是尺码不合适,这次回来他带回来做调整。
去之前男朋友碎碎念,不知道国内专柜认不认,也没有购买记录什么的,还是国外版。
我说,你别管这些,直接进去,说,“我有一条你家的皮带,但是尺码大了,需要裁剪,能做吗?”
不要用请求式的语气,不用商量,不用讨论,因为你是付钱购买服务,就问他能不能做就行了。 14 0
原文链接:说点“街头智慧” 之前在国外,朋友送了一条gucci皮带, - 即刻App
这篇文档是关于提示工程(Prompt Engineering)的白皮书,介绍了如何通过设计高质量的提示来引导大型语言模型(LLM)生成准确的输出。主要内容包括:
总之,这篇白皮书为读者提供了全面的提示工程技术指南,帮助他们更好地理解和应用这些技术。
原文链接:Google 官方提示工程 (Prompt Engineering)白皮书
这篇文章讲述了中国女演员汤唯的职业生涯和个人生活的转折点。故事从她参加李安导演的电影试镜开始,这次经历成为她演艺事业的一个重要起点。26岁时,她在李安导演的新片《色,戒》中饰演女主角王佳芝,这部电影不仅改变了她的职业轨迹,也极大地影响了她的个人生活。
文章通过回顾汤唯的成长背景——单亲家庭长大,与母亲关系亲密,并提及她父亲对她的影响以及童年时期的生活环境。在她成为一名著名演员后,汤唯继续寻求自我成长,不断学习新的知识和技能,即便面对迷茫和不确定性时也不放弃探索自我的机会。这段时期包括出国学习英语、莎士比亚戏剧等。
文中还介绍了汤唯作为女性,在追求艺术创作的同时如何处理个人生活与工作的平衡。特别是她结婚生子后的改变,这使她重新审视了自己对于幸福的定义以及对待工作的方式。随着岁月流逝,汤唯逐渐找到了属于自己的定位:既不过度追逐名利场中的虚幻光芒,也不完全沉溺于私人世界里;而是试图在这两者之间找到一种和谐状态。
此外,文章还探讨了汤唯如何看待自己的表演风格及未来发展方向。即使已经成为了一位成功且受尊敬的女演员,她仍希望能够进一步突破自我,在保持原有魅力的基础上尝试不同类型的角色,以丰富自己的演艺生涯。通过一系列作品如《晚秋》、《黄金时代》等,汤唯展现了不同于以往“天涯孤女”形象的多面性。
总之,这篇文章描绘了一个关于寻找自我价值并最终实现重生的故事。通过对汤唯个人经历及其内心世界的细腻描写,向读者呈现了一位复杂而真实的女性形象,反映了现代女性艺术家面临的挑战与抉择。
原文链接:特写 | 汤唯重生
文章主要分析了特朗普发布的“对等关税行政令”的内容和意图。刘润认为,特朗普的目的是通过这一行政令来彻底改变现有的国际贸易体系,尤其是针对美国长期存在的贸易逆差问题。以下是文章的主要内容总结:
总之,特朗普的行政令旨在通过单边行动打破现有的国际贸易体系,重塑一个更加有利于美国的新世界秩序。他的目的不仅仅是解决贸易逆差问题,更是要彻底颠覆现有的国际经济规则。
原文链接:刘润:特朗普的目的,是拆庙
本文探讨了如何使AI生成的文章看起来更像出自人类之手,主要从以下四个方面给出建议:
总之,虽然AI能够辅助写作过程,但最终文章的灵魂仍需由作者自己赋予。
原文链接:如何去除文章的AI味道-月光博客
2025-04-20 12:30:27
MCP的出现,标志着AI从「模型能力竞争」转向「生态协同共建」。它不仅是技术协议,更是一种「连接范式」——通过标准化降低集成成本,通过开源吸引多元参与,最终让AI像水电一样便捷接入各类数据与工具。无论是开发者、企业还是普通用户,MCP都在重塑人与AI、AI与世界的交互方式,其价值将随着智能体生态的爆发持续显现,所以这篇文章打算从MCP来龙去脉和MCP可视化调试两个方面进一步的研究MCP。
2023年前后,随着ChatGPT等大语言模型(LLM)爆发,企业和开发者发现:
Anthropic(由OpenAI前员工创立,专注安全AI的公司)意识到,需要一个标准化协议来统一LLM与外部资源的交互方式,类似USB-C统一电子设备接口,这就是MCP的核心设想。
MCP的设计目标不是替代现有API,而是在其上层构建抽象层:
context.fetch()
获取数据、tool.execute()
调用操作)、安全指南(数据加密、权限控制);LLM宿主(Host) <-- MCP客户端(Client)--> MCP服务器(Server) <--> 数据/工具
2025-04-14 09:00:40
MCP 起源于 2024 年 11 月 25 日 Anthropic 发布的文章:Introducing the Model Context Protocol。
MCP 就是以更标准的方式让 LLM Chat 使用不同工具,这样应该更容易理解“中间协议层”的概念了。Anthropic 旨在实现 LLM Tool Call 的标准。
MCP (Model Context Protocol,模型上下文协议)定义了应用程序和 AI 模型之间交换上下文信息的方式。这使得开发者能够以一致的方式将各种数据源、工具和功能连接到 AI 模型(一个中间协议层),就像 USB-C 让不同设备能够通过相同的接口连接一样。MCP 的目标是创建一个通用标准,使 AI 应用程序的开发和集成变得更加简单和统一。
MCP 主解决的一个问题是:如何将 AI 模型和我们已有系统集成。
在跟 LLM 交互的时候,为了显著提升模型的能力需要提供更结构化的上下文信息,例如提供一些更具体、实时的信息(比如本地文件,数据库,一些网络实时信息等)给模型,这样模型更容易理解真实场景中的问题。想象一下没有 MCP 之前会怎么做?我们会人工从数据库中筛选或者使用工具检索可能需要的信息复制到 prompt 中,随着要解决的问题越来越复杂,人工参与这样的数据交互过程变得越来越难以实现。
许多 LLM 如 OpenAI、Google、Qwen 等引入了 function call 功能,这一机制允许模型在需要时调用预定义的函数来获取数据或执行操作显著提升了自动化水平,当前大热门 AI Agent 也具备类似的能力。那么 function calling、AI Agent、MCP 这三者之间有什么区别:
基于 AI 做编程和应用开发时,开发者都希望将数据、系统连接到模型的这个环节可以更智能、更统一。Anthropic 基于这样的痛点设计了 MCP,充当 AI 模型的「万能转接头」,让 LLM 能轻松的获取数据或者调用工具。更具体的说 MCP 的优势在于:
在深入学习 MCP 技术原理之前,为了能够对 MCP 比较有体感,可以先了解怎么使用 MCP。Claude Desktop 是比较早支持 MCP 协议的,但是由于众所周知的原因,在国内使用 Claude 并不方便,可以参考它的教程:For Claude Desktop Users - Model Context Protocol。
关于怎么使用 MCP,我打算以 OpenCat 为例介绍一下,如何采用 OpenCat + Qwen
组合使用 MCP:
MCP 遵循客户端-服务器架构(client-server),其中包含以下几个核心概念:
MCP client 充当 LLM 和 MCP server 之间的桥梁,MCP client 的工作流程如下:
MCP server 是 MCP 架构中的关键组件,它可以提供 3 种主要类型的功能:
这些功能使 MCP server 能够为 AI 应用提供丰富的上下文信息和操作能力,从而增强 LLM 的实用性和灵活性。
LLM 调用 MCP 的过程可以分为两个步骤:
为了更加深入理解 MCP 原理,我打算从 MCP 协议的源码进行分析:
根据 MCP 官方提供的 client example 进行源码分析,其中删除了一些不影响阅读逻辑的异常控制代码,通过阅读代码,可以发现模型是通过 prompt 来确定当前有哪些工具,通过将工具的具体使用描述以文本的形式传递给模型,供模型了解有哪些工具以及结合实时情况进行选择,具体情况可以参考代码中的注释:
###################
# 此处省略无关的代码 #
###################
async def start(self):
# 1.初始化所有的 mcp server
for server in self.servers:
await server.initialize()
# 2.获取所有的 tools 命名为 all_tools
all_tools = []
for server in self.servers:
tools = await server.list_tools()
all_tools.extend(tools)
# 3.将所有的 tools 的功能描述格式化成字符串供 LLM 使用,tool.format_for_llm() 我放到了这段代码最后,方便阅读。
tools_description = "\n".join(
[tool.format_for_llm() for tool in all_tools]
)
# 4.基于 prompt 和当前所有工具的信息询问 LLM(Qwen)应该使用哪些工具。
system_message = (
"You are a helpful assistant with access to these tools:\n\n"
f"{tools_description}\n"
"Choose the appropriate tool based on the user's question. "
"If no tool is needed, reply directly.\n\n"
"IMPORTANT: When you need to use a tool, you must ONLY respond with "
"the exact JSON object format below, nothing else:\n"
"{\n"
' "tool": "tool-name",\n'
' "arguments": {\n'
' "argument-name": "value"\n'
" }\n"
"}\n\n"
"After receiving a tool's response:\n"
"1. Transform the raw data into a natural, conversational response\n"
"2. Keep responses concise but informative\n"
"3. Focus on the most relevant information\n"
"4. Use appropriate context from the user's question\n"
"5. Avoid simply repeating the raw data\n\n"
"Please use only the tools that are explicitly defined above."
)
messages = [{"role": "system", "content": system_message}]
while True:
# 5.将用户输入消息进行聚合
messages.append({"role": "user", "content": user_input})
# 6.将 system_message 和用户消息输入一起发送给 LLM
llm_response = self.llm_client.get_response(messages)
# ...
class Tool:
"""Represents a tool with its properties and formatting."""
def __init__(
self, name: str, description: str, input_schema: dict[str, Any]
) -> None:
self.name: str = name
self.description: str = description
self.input_schema: dict[str, Any] = input_schema
# 把工具的名字 / 工具的用途(description)和工具所需要的参数(args_desc)转化为文本
def format_for_llm(self) -> str:
"""Format tool information for LLM.
Returns:
A formatted string describing the tool.
"""
args_desc = []
if "properties" in self.input_schema:
for param_name, param_info in self.input_schema["properties"].items():
arg_desc = (
f"- {param_name}: {param_info.get('description', 'No description')}"
)
if param_name in self.input_schema.get("required", []):
arg_desc += " (required)"
args_desc.append(arg_desc)
return f"""
Tool: {self.name}
Description: {self.description}
Arguments:
{chr(10).join(args_desc)}
还有一个地方需要分析清楚即 Tool 的描述和代码中的 input_schema
是怎么获取的?这个问题需要看一下 MCP 协议的实现(这里我分析的是 Python SDK 源代码),MCP Python SDK 使用装饰器 @mcp.tool()
来装饰函数时,对应的 name
和 description
等其实直接源自用户定义函数的函数名以及函数的 docstring 等,源代码如下:
@classmethod
def from_function(
cls,
fn: Callable,
name: str | None = None,
description: str | None = None,
context_kwarg: str | None = None,
) -> "Tool":
"""Create a Tool from a function."""
func_name = name or fn.__name__ # 获取函数名
if func_name == "<lambda>":
raise ValueError("You must provide a name for lambda functions")
func_doc = description or fn.__doc__ or "" # 获取函数 docstring
is_async = inspect.iscoroutinefunction(fn)
... # 更多请参考原始代码...
可以看出 LLM 使用工具是通过 prompt engineering,即提供所有工具的结构化描述和 few-shot 的 example 来确定该使用哪些工具。另一方面,大模型厂商(如Qwen)肯定做了专门的训练,确保大模型更能理解工具的 prompt 以及输出结构化的 tool call json 代码。
工具的执行就比较简单和直接,把 system prompt(指令与工具调用描述)和用户消息一起发送给模型,然后接收模型的回复。当模型分析用户请求后,它会决定是否需要调用工具:
如果回复中包含结构化 JSON 格式的工具调用请求,则客户端会根据这个 json 代码执行对应的工具。具体的实现逻辑都在 {python} process_llm_response
中,代码,逻辑非常简单。
如果模型执行了 tool call,则工具执行的结果 result 会和 system prompt 和用户消息一起重新发送给模型,请求模型生成最终回复。
如果 tool call 的 json 代码存在问题或者模型产生了幻觉怎么办呢?通过阅读代码发现,我们会 skip 掉无效的调用请求。
执行相关的代码与注释如下:
async def start(self):
# 省略无关的代码
while True:
# 假设这里已经处理了用户消息输入.
messages.append({"role": "user", "content": user_input})
# 获取 LLM 的输出
llm_response = self.llm_client.get_response(messages)
# 处理 LLM 的输出(如果有 tool call 则执行对应的工具)
result = await self.process_llm_response(llm_response)
# 如果 result 与 llm_response 不同,说明执行了 tool call (有额外信息了)
# 则将 tool call 的结果重新发送给 LLM 进行处理。
if result != llm_response:
messages.append({"role": "assistant", "content": llm_response})
messages.append({"role": "system", "content": result})
final_response = self.llm_client.get_response(messages)
logging.info("\nFinal response: %s", final_response)
messages.append(
{"role": "assistant", "content": final_response}
)
# 否则代表没有执行 tool call,则直接将 LLM 的输出返回给用户。
else:
messages.append({"role": "assistant", "content": llm_response})
结合这部分原理分析:
我开源了一个 MCP Repo,以 OpenCat 为 MCP Host,支持 Weather 数据查询的 MCP Server 和 MCP Client([email protected]/edonyzpc/MCP.git)。
MCP Server 的开发可以参考 Server 章节:MCP/servers/weather-server-mcp
MCP Client 的开发可以参考 Client 章节:MCP/clients/mcp-client
MCP的初学者还缺少两部分:1. MCP的来龙去脉;2.MCP协议的观测和调试。篇幅限制,留待下次分解,Stay Tuned
2025-04-13 17:33:07
允许一切如其所是,也允许一切事与愿违
如果你没有按你真正想要的那种方式去生活,你的灵魂每天都会喊疼
成熟的重要标志是拥有翻篇的能力。
谁能给你带来最多的平静,谁就应该得到你最多的时间。
命运选择给某某好运气,并不一定是他有多优秀,而是他在遇到问题时,没有躲。
行动是产生结果的唯一方式,可惜的是,大多数人在“想”的过程中就已经消耗了100%的精力。
失败不是成功之母,成功才是成功之母。
不要依赖别人灌输给你的想法和观念去生活,不要遵循别人设计好的软件使用习惯去应用,也不要沉迷于通过消费、娱乐来获取多巴胺。
我们无法在消极的想法里活出积极的人生,也无法在拧巴的状态中活出通透的人生
很多事情做不成,缺的不是时间和机会,而是专心致志。
如果道路本身很美,不要问它通往何方。——要做过程热爱、有生命力的事情
"累了就躺一躺,不丢人“——雷军老师 68 17
原文链接:《📖人一旦开了窍,人生就开了挂》书摘 允许一切如其所是, - 即刻App
很多事情确实经历过一遍以后,再经历就很从容了。每一段过往都是成长的养料,我们要努力做的就是尽可能从中汲取足够多的营养。
原文链接:很多事情确实经历过一遍以后,再经历就很从容了。每一段过往都是 - 即刻App
有个事儿挺有意思的。
我们平时走在路上,看到陌生人,如果没什么事是并不会主动打招呼的对吧?每天有无数人擦肩而过。
但我有个狗。我有个狗呢,事情就发生了一些变化。带狗出门,迎面碰上的人有30%会看着我的狗,说哈喽。
我也不例外。外出看到狗,我也会情不自禁说:小狗!
和陌生人打招呼会很奇怪,但和陌生狗不会。
在一些场景下,人常说的人不如狗,或者人比狗狗,是不是也是错把投射当真实呢?
哈!既渴望连接又恐惧接触的城市穴居人呐。
原文链接:有个事儿挺有意思的。 我们平时走在路上,看到陌生人,如果没 - 即刻App
现在,很多人都对 AI 抱着一个幻想:我可能不是很专业,但如果借助 AI,不就能轻松变成专业人士了吗?确实,AI 在某些方面给了我们这样的错觉,比如稍微懂一点编程的人,可以轻松地用 AI 写出一个小程序的原型;不怎么懂设计的人,可以通过 AI 快速生成看起来不错的海报。然而,这种“什么都懂一点”再靠 AI 加持就能变专业的想法,其实是一种误解,甚至可能是一种危险的误解。
从根本上讲,AI 工具对用户的帮助主要集中在两个方面:
1. 提升能力的下限 什么叫“能力的下限”?就是说,以前一个完全不懂绘画的人根本画不出东西,现在借助 AI,可以迅速生成一幅看起来还不错的插画。原本根本不会写代码的人,也能通过 AI 生成基础的网页代码,实现简单的功能。这就是 AI 提高了普通人甚至零基础人士入门门槛的作用。
2. 提升专业人士的效率 如果你本来就是某个领域的专家,比如一个资深的软件开发者或者专业的医疗研究人员,那么 AI 的作用就更明显了。它能自动化大量重复性的工作,帮你快速生成需要反复编写的基础代码或自动整理医疗数据的初步报告,让你能把更多的时间和精力集中在真正需要人类思考和决策的核心工作上。这种情况下,AI 的价值是巨大的,它不仅提升了效率,还能让你原本就高水平的专业能力得到更大化的发挥。
原因主要在于 AI 自身的特性和使用者的水平局限:
AI(特别是像 ChatGPT 这样的大语言模型)生成的结果存在着“幻觉”(hallucination),通俗点说就是“胡编乱造”的问题。哪怕 AI 在 99% 的情况下都生成正确且高质量的结果,但只要有 1% 的错误或低质量结果,对于一些容错率极低的领域来说,比如医疗、法律或财务领域,都可能造成严重甚至致命的后果。
举个简单的例子:
因此,专业人士对 AI 生成结果的审核和判断极为关键,而非专业人士根本不具备这种审核能力。
对于某个专业领域,我们可以简单用 0 到 100 的分数来表示一个人的专业水平:
当非专业人士使用 AI 时,即便 AI 能帮助他实现 60-80 分的效果,这个人实际上很难准确分辨出 60 分和 80 分之间的差距,更无法判断 AI 给出的某个具体结果是高质量的专业输出,还是看起来不错但实际上漏洞百出的低质输出。
例如,你稍微懂一点编程,借助 AI 能写个小程序或简单的网页。但一旦需要写出复杂且稳定的生产级系统,你就难以识别 AI 生成的代码是否存在严重漏洞,哪怕 AI 的输出表面上看起来似乎不错。这时候你做的程序,可能仅仅是看起来好一点的“玩具”,而不是专业标准的软件。
对于真正的专业人士,情况完全不同。他们在使用 AI 时会:
因此,对于“懂一点但不精”的用户群体来说,重要的不是寄希望于 AI 帮你实现“一键专业化”,而是:
正如 @同声翻译樱桃羊 说的:
AI 是给老虎添翼,也让猪能飞上一小会儿,但是并不能让猪变成老虎
专业的能力,就像是你的地图和驾驶技术——只有当你知道自己要去哪里,知道路上可能遇到什么危险,并且遇到紧急情况能手动接管,才能真正驾驭 AI 的力量,安全地驶向你期望的目的地。
AI 时代,并不是降低了对专业的需求,相反,它提升了“专业判断力”的价值。
原文链接:为什么靠 AI“什么都懂一点”,却并不能真正变专业?