2025-10-05 12:09:16
国庆期间我对 AI 资源库 的多项优化,包括资源规模突破、过滤与展示体验提升,以及全新引入的项目健康评分系统,旨在帮助读者更高效地筛选和判断优质 AI 项目。
AI 资源库地址: https://jimmysong.io/ai/
AI 资源页经过多轮整理,目前已收录超过 500 条资源,其中开源项目(含 GitHub 仓库)超过 400 个。资源类型涵盖教程、工具、论文实现、模型仓库等,支持中英文双语索引(/zh/
与 /en/
),方便不同语言用户检索。
随着资源数量的增长,目录内容愈发全面,但也带来了“信息过载、难以抉择”的新挑战。为此,后续的优化工作主要聚焦于提升筛选效率和信息可读性。
为解决“资源太多不好选”的问题,本次更新重点优化了前端交互与展示方式:
这些优化让用户可以更快定位到感兴趣的项目,同时一目了然地了解项目的基本状态。
随着资源数量激增,仅靠标签已难以直观判断项目优劣。因此,资源列表页新增了「综合评分」字段,帮助读者快速评估项目的活跃度与健康状况。
评分系统的核心理念在于:高 Star 并不等于高活跃度,真正值得关注的是持续维护、社区参与度高的项目。综合评分将“人气 / 活跃度 / 社区参与”三项信息合成为 0-100 的分值,便于横向比较。
为确保评分系统的科学性与可扩展性,相关设计与实现细节已在文档中详细说明。以下为简要摘要,详细内容可参考文末文献链接。
本次更新带来了以下界面变化:
这些变化让用户在浏览和筛选时能更快做出判断,提升整体体验。
为了持续完善资源库,欢迎大家积极反馈和贡献:
提交入口: AI 资源反馈与推荐
后续将持续优化资源页,主要方向包括:
这些计划将进一步提升资源库的专业性和实用性,欢迎持续关注与建议。
本次国庆期间的资源页更新,重点在于提升浏览、筛选与判断优质项目的效率。评分系统并非权威排名,而是为读者提供决策参考。感谢大家一直以来的支持,欢迎通过 GitHub 反馈问题或推荐新项目,让 AI 资源库持续成长。
2025-10-01 14:59:47
在过去一年里,我发现云原生产业迎来了一个显著趋势:大量原先专注于云原生的企业开始拥抱生成式 AI,甚至把自己的产品线重新定位为"AI 原生"或"智能代理平台"。这种转型不仅体现在功能层面的升级,还涉及业务模型、用户定位和市场战略的调整。
2025 年 9 月,一则新闻引起了我的注意:Rancher 创始人梁盛 (Sheng Liang) 宣布其新公司 Acorn Labs 将从 Kubernetes 管理工具全面转向 AI 代理平台(见 Why Rancher’s Founders Pivoted From Kubernetes to Agentic AI )。梁盛是我相识 7 年的朋友,他是一位连续创业者,之前创立的 Cloud.com 被 Citrix 收购,后来又创立了在云原生时代名声大噪的 Rancher,最终被 SUSE 收购。这是他第三次创业,这次他选择离开已经成熟但竞争激烈的 Kubernetes 市场,转而押注于 AI 代理这个全新领域。
梁盛在接受采访时表示:“我们看到 AI 代理将成为软件开发的主要方式,就像云原生曾经改变基础设施一样,AI 代理将重新定义软件构建和交付的方式。“他认为,虽然 Kubernetes 市场规模庞大,但已经被大厂主导,创业公司的机会窗口已经关闭。相比之下,AI 代理领域仍处于早期阶段,需要全新的基础设施、工具和最佳实践。Acorn Labs 的新平台旨在让开发者无需深入的机器学习知识,就能轻松创建、部署和管理 AI 代理。
这个转型决策让我陷入了思考。梁盛作为云原生领域的先行者,他的战略转向不是一时兴起,而是基于对技术趋势的深刻洞察。如果连 Rancher 这样的云原生领军企业都在转向 AI 原生,这是否意味着整个行业正在经历一次范式转移?本文将以此为引子,结合 Gitpod 改名为 Ona(见 Gitpod is now Ona, moving beyond the IDE )、流量管理、基础设施管理、代码构建和 DevOps 等不同领域的代表性公司,对 AI 大潮下传统 SaaS/云原生/基础设施/开发者工具公司的转型路径和趋势进行深度分析。
大语言模型(LLM)和生成式 AI 的爆发式增长导致企业对 AI 接入与治理的需求激增。以 API 网关领域为例(见我之前写的博客 深入解析 AI Gateway:新一代智能流量控制中枢 ),传统 API 网关在 AI 场景下遇到多方面挑战:一是 LLM 调用计费依据令牌数而非请求次数,需要对每个请求的 token 使用量进行精细管理;二是 LLM 输出存在不可预测性,网关不仅要检查输入还要过滤返回内容;三是 AI 应用常常需要同时使用多个模型或多个供应商,传统网关缺乏根据请求内容动态路由到最合适模型的能力;四是需要在高并发、流式返回的场景下进行实时性能与成本优化。文章还指出,自 2023 年下半年起,Envoy、Apache APISIX、Kong、Solo.io、Tetrate、F5 等社区或厂商纷纷发布 AI Gateway 项目或产品,用插件或模块的方式将 AI 流量管理和安全治理纳入网关能力范畴。
这一波 AI 浪潮带来的核心变化可归纳为:
下面我们选择几个不同领域的代表性企业进行深入分析。
Gitpod 曾是颇受欢迎的在线开发环境平台,它提供了浏览器中的 VS Code 和预配置的开发容器。然而,随着生成式 AI 的崛起,公司在 2025 年 9 月宣布重塑品牌并更名为 Ona。新官网解释了这一转型:公司认为"IDE 定义了上一代,智能代理将定义下一代",工程师需要的不是一个简单的 IDE,而是能让 AI 代理陪伴整个软件生命周期的"任务控制中心"。新平台重新定位为"为个人团队提供软件工程代理的使命控制台",允许用户在 Ona 上探索、分解、委派、编码、评审和编写文档,它由三大组件组成:
devcontainer.json
和 automations.yml
进行声明式定义,可在 Ona 云或私有 VPC 中运行。Ona 还公布了内部使用效果:他们的 Ona Agents 在一周内共同撰写了公司 60% 的合并 PR,并贡献了 72% 的代码。这些变化表明 Gitpod 正在从在线 IDE 供应商转型为具有自动化编程代理、流程管理和安全控制的 AI 原生开发平台。
Tetrate 作为笔者曾工作多年的公司,以维护和商业化 Envoy/Istio 服务网格而闻名。随着如今众多企业将多个 LLM 集成到业务中,Tetrate 在 2025 年推出了 Agent Router Service (TARS),用于动态路由 AI 请求并优化模型成本。官方博客指出,该服务在 Goose 集成中提供一键配置,用户无需维护多个模型供应商的 API 密钥即可访问 GPT‑5、Claude Opus 4.1、Grok 4 以及开源模型等前沿模型。它还提供 $10 免费额度,并在后台根据任务复杂度自动在模型间切换,支持统一认证、自动故障转移和成本优化。更重要的是,Tetrate 将在服务网格中积累的 智能路由、负载均衡和弹性机制 应用于 AI 场景,使 AI 调用能够根据令牌价格和响应时间等因素进行动态路由。
公司在新闻稿中表示,TARS 能根据推理成本、查询复杂度、模型性能或任务特异性将 AI 查询动态路由到最合适的模型。它支持多租户或本地部署,并允许开发者使用自己的 API 密钥或 Tetrate 提供的密钥接入模型。内置功能包括自动回退到更可靠或更便宜的模型、交互式提示调试和 A/B 测试。对于聊天机器人,它会将会话路由到响应更快或更具成本效益的模型;对于代码生成,它能根据编程语言、上下文和合规要求动态选择模型;对于自主代理,它协调多个 LLM 调用并控制成本。Tetrate 还将其 AI 网关与 Agent Operations Director 结合,通过 NIST 和 FINOS 标准加强模型治理和合规性。
此外,Tetrate 正在通过 AI 网关保持竞争力,其主导的开源项目 Envoy AI Gateway 为组织提供统一的 API,以管理来自多个模型的请求。新推出的路由服务让开发者可以用 Tetrate 提供的或自有的 API 密钥访问不同模型,并通过提示调试、自动回退及 A/B 测试避免供应商锁定。业内分析师认为,随着开发者同时使用多个 LLM,AI 流量路由器已成为不可或缺的基础设施,它们帮助在性能和成本之间取得平衡。
在线开发平台 Replit 在 2024 年 9 月发布了 Replit Agent,定位为能够从自然语言直接创建和部署应用的 AI 系统。借助 Replit Agent,用户只需几句话和几分钟,就可以将一个想法变成部署好的应用。Replit Agent 像一名对等程序员,它会自动配置开发环境、安装依赖并执行代码。官网介绍强调,这种方式"无需代码",用户告诉 Agent 自己想做什么,它会自动生成应用和网站,甚至可以上传一张参考截图让 Agent 完成相似页面。该平台强调 Agent 能够迅速从想法生成原型,并拥有修复 bug 的能力,集成所有构建工具于一处。
Replit 的转型说明,在线编程平台正在向"应用生成器"演变:用户的交互方式从编写代码转为描述需求,平台则通过大模型与执行环境的结合快速交付结果。这种模式降低了软件开发门槛,同时也模糊了开发者与非开发者的界限。
GitLab 在 2024 年推出了 GitLab Duo,致力于在整个软件生命周期中引入生成式 AI。GitLab Duo 声称是唯一覆盖"从规划和编码到安全与部署"的 AI 解决方案。它强调隐私优先,企业可以控制哪些用户和项目使用 AI 功能,并保证私有代码不会用于训练模型。该平台通过单一界面集成最适合各个环节的模型,提供智能代码建议、自动化安全修复、实时问答和生成测试等功能。
2025 年 9 月发布的 GitLab 18.4 版本进一步提出了"AI 原生开发“愿景,包括以下亮点:
GitLab 的转型展示了 DevSecOps 平台如何将生成式 AI 深度嵌入现有流程:通过代理化的协作方式自动完成规划、编码、测试和运维任务,同时强调隐私和模型治理。
基础设施即代码(IaC)平台 Pulumi 在 2024 年推出了 Pulumi Copilot。官方文档将其描述为"集成到 Pulumi Cloud 的对话式聊天界面,结合生成式 AI 与 Pulumi Cloud 的强大能力,使用户能够更快速完成云基础设施管理任务”。Copilot 的核心能力包括:
Pulumi Copilot 使用 OpenAI 的 GPT‑4o 模型,它继承 Pulumi Cloud 的 RBAC 权限模型,目前仅能执行只读操作,未来将扩展到可执行操作并提供可控的读写权限。这一转型展示了 IaC 工具厂商如何利用 AI 降低基础设施运维门槛,并通过对话式体验提供成本分析和快速部署功能。
可观测性平台 Datadog 在 2025 年推出了 Bits AI 套件,包括 Bits AI SRE、Bits AI Security Analyst 和 Bits AI Dev Agent。来自技术博客的梳理显示,Bits AI SRE 通过生成多个假设并验证各类监控数据,为根因分析提供自动化支持。它像一名 24/7 的自治队友,实时分析日志、指标、追踪以及 Watchdog 警报,并将假设分类为已验证、已否定或需要进一步调查,从而大幅缩短人工排查时间。实际案例中,Bits 已帮助全球运营团队在高峰期加速故障排查。
Bits AI Security Analyst 通过 MITRE ATT&CK 框架自动规划和执行安全调查,主动处理 Datadog Cloud SIEM 的信号,并提供可操作的建议。Bits AI Dev Agent 则聚焦代码修复,它会监控遥测数据、识别关键问题并生成生产级的修复 PR,让工程师直接在代码仓库中审查和合并。这些代理共享模型上下文并可共同分析异常或扩容基础设施。平台声称,该套件可将安全调查时间从 30 分钟缩短至 30 秒,并为公司节省数千小时工程时间。Bits AI 的推出标志着可观测性供应商正从被动监控转向主动诊断和自动修复,构建 AI 原生运维体系。
综合上述案例,可以发现传统云原生公司转向 AI 原生存在一些共性策略和差异化路径:
与此同时,也要看到转型的挑战:
过去一年里,云原生生态中的多家公司通过重塑产品、引入智能代理和 AI 流量管理,积极拥抱生成式 AI。无论是将传统 IDE 转型为 AI 开发控制台的 Ona,利用服务网格经验打造 AI 流量路由器的 Tetrate,还是在 DevSecOps、IaC 和可观测性领域推出代理化功能的 GitLab、Pulumi 和 Datadog,这些实践都表明 AI 原生 正成为下一轮技术浪潮。
未来我们可能看到:
总之,AI 原生时代带来了软件工程范式的深刻变化。对于云原生领域的企业而言,抓住这一波浪潮意味着机会与挑战并存:既要充分释放 AI 带来的效率提升和创新空间,又要在安全、可靠和合规的前提下构建稳健的产品和生态。我们正处于这一转型的起点,未来值得期待。
2025-09-25 10:01:57
近年来,AI 与编程助手的融合不断加速,能够直接在浏览器内部进行深度调试与性能分析的能力,正在推动前端自动化进入新阶段。本文将介绍 Google 最近发布的 Chrome DevTools MCP ,并深入讲解其设计理念、核心组件、典型用例以及本地试用与参与贡献的方法。
2008 年的一个午后,我第一次下载并打开了 Chrome。那一刻印象至今难忘:空白的启动页、简洁的标签式界面,以及令人惊叹的速度,与当时笨重又充斥着弹窗、强制主页和杂乱插件的 IE 形成了鲜明对比。十几年过去,Chrome 的市场份额已经超过 70%,并催生出大量基于 Chromium 内核的浏览器。近两年,市面上也冒出了一些所谓的“AI 浏览器”,我也尝试过几款,但体验并不理想,很多功能其实一个普通的 AI 插件就能完成。相比之下,Chrome 在许多场景中依然无法被取代,尤其是在 Web 开发时,它早已不仅是浏览网页的工具,更是开发者离不开的全能套件。如今,Chrome 已在美国率先支持 Gemini,相信很快就会在全球推广,未来我们将迎来一个内置 AI 功能的 Chrome,这无疑将再次改变我们的上网与开发体验。
Chrome DevTools MCP 并非简单地暴露 DevTools 功能,而是将调试能力、性能跟踪、网络监控等工具封装为面向 LLM/代理的 MCP 服务。与传统 Puppeteer 或 Playwright 的“脚本式控制”相比,Chrome DevTools MCP 具有以下优势:
在 VS Code 中配置好 Chrome DevTools MCP 后,你可以直接在 Copilot 中运行如下提示:
#chrome-devtools 检查 jimmysong.io 的 LCP 问题。
此时,Chrome 浏览器会自动启动并打开 jimmysong.io 网站,MCP 服务会执行页面加载的 tracing,收集 traceEvents 并分析主线程任务,最终返回包含 LCP 诊断和优化建议的报告。
下面简要介绍 Chrome DevTools MCP 的技术栈和主要工具集,帮助读者快速了解其整体架构。
puppeteer/chrome-remote-interface
为后端),可按需启动 headless 或带界面的 Chrome 实例。Chrome DevTools MCP 采用分层架构设计,确保代理能够高效利用底层调试能力。下文将详细介绍各层组件及其职责,并通过架构图展示数据流转过程。
这种分层设计保证了灵活性:上层代理无需了解 CDP 细节即可利用强大的调试数据,实现者则可在工具适配层持续扩展新能力。
下方为 Chrome DevTools MCP 的架构图,便于理解系统内部数据流:
上图展示了从代理发起请求、MCP 服务分发到具体工具、工具通过适配器调用 Puppeteer/CDP 与 Chrome 交互、再将采集到的数据封装回传的全流程。
实际仓库实现还包含细粒度的工具目录(约 26 个工具,6 个类别),以及 WebSocket / stdio 的连接示例与配置项。建议阅读仓库
README.md
与examples/
获取最新命令与运行选项。
主要实现要点:
index.js
使用 yargs
处理命令行参数,并通过 @modelcontextprotocol/sdk
初始化 MCP 服务。服务可通过 stdio、WebSocket 或 HTTP 与外部代理通信。defineTool()
工厂模式定义工具(ToolDefinition),并按功能分组为若干类别(输入自动化、页面导航、性能、调试、网络、仿真等)。每个工具负责参数校验、执行逻辑与统一的错误/响应格式。Chrome DevTools MCP 共提供 26 个工具,分为六大功能类别。下表对各类别及主要功能进行说明:
类别 | 数量 | 主要功能 |
---|---|---|
输入自动化 | 7 | click、drag、fill、fill_form、handle_dialog、hover、upload_file |
导航自动化 | 7 | close_page、list_pages、navigate_page、navigate_page_history、new_page、select_page、wait_for |
性能 | 3 | performance_analyze_insight、performance_start_trace、performance_stop_trace |
调试 | 4 | evaluate_script、list_console_messages、take_screenshot、take_snapshot |
网络 | 2 | get_network_request、list_network_requests |
仿真 | 3 | emulate_cpu、emulate_network、resize_page |
每个工具都提供了特定的浏览器自动化能力,并保持一致的接口和错误处理模式。
Chrome DevTools MCP 在实际应用中展现出显著价值,主要体现在以下方面:
下面介绍将 Chrome DevTools MCP 注册为 MCP 客户端服务器的步骤,并给出常见运行参数与实践建议。
在 MCP 客户端(或代理)配置中,添加 mcpServers
条目指向 chrome-devtools-mcp
。官方推荐配置如下:
{
"mcpServers": {
"chrome-devtools": {
"command": "npx",
"args": ["chrome-devtools-mcp@latest"]
}
}
}
该配置会在代理需要时通过 npx
启动 chrome-devtools-mcp
。如在 CI 或需可重复性环境运行,建议将 @latest
替换为固定版本号(如 [email protected]
)。
chromePath
。latest
引入不兼容变更。CHROME_PATH
环境变量指向可执行文件。chrome-devtools-mcp
启动 MCP 服务(如通过 npx [email protected]
)。Chrome DevTools MCP 为开发者和团队带来如下直接价值:
Chrome DevTools MCP 将 Chrome DevTools 的深度调试能力带给代理与 LLM,填补了自动化脚本控制与深层调试之间的空白。对于追求性能、可靠性和可解释性的前端团队而言,它是高价值的工具链组件。欲了解实现细节、示例与参与贡献,请访问下列资源。
2025-09-22 10:08:57
本文以我亲身遭遇的“GitHub × Gitcoin Developer Fund 2025”钓鱼事件为例,系统梳理其利益链条、作案流程、技术实现与防御措施,帮助技术社区识别并应对新型 Web3 诈骗。
近日,我在 GitHub 收到一封伪装成 “GitHub × Gitcoin Developer Fund 2025” 的邮件通知,声称我已“符合资格”,只需点击链接、通过 Gitcoin Passport 验证钱包并支付“可退还押金”即可获得资助。大量开发者也反馈收到了类似邮件,详见 社区讨论 #174283 。
这种诈骗方式利用了 GitHub 通知系统的权威感,并结合 Web3 钱包授权与押金,伪装成高大上的资助计划,实则是资金和账号窃取的骗局。本文将从利益驱动、作案链条、技术实现到防御措施进行系统分析。
攻击者通过脚本账号在陌生仓库发起 Issue 或 Discussion,并 @ 上千名开发者(包括我),触发 GitHub 的系统通知邮件,轻松绕过垃圾拦截,直接进入收件箱。即便是经验丰富的开发者,也可能因“GitHub 官方通知”形式而放松警惕。
示例链接: 钓鱼 Issue (GitHub Issue,可以放心点击)
访问钓鱼页面 github-foundation.com
后,无论点击页面哪个位置,都会弹出“Connect Wallet”窗口,支持 MetaMask、Trust Wallet、WalletConnect 等主流钱包。
主要特征如下:
github-foundation.com
与官方域名完全不同。攻击者优先选择具有一定影响力和资产的开发者账号,如 GitHub Developer Program 成员、拥有 Sponsors、活跃度高等。这类账号更可能点开链接,且钱包资产和仓库权限价值更高。
但同时,攻击者采用批量撒网策略,混合高价值和低价值用户一起投放,只要有少量开发者上钩即可获利。
攻击者的完整利益链条如下:
在 GitHub Community 讨论区,已有开发者反馈收到同类 spam,说明该骗局已进入大规模传播阶段,并非孤立案例。
针对此类钓鱼导致的垃圾或“幽灵”通知,可参考
社区讨论中的有效解决方案
。下载下面的清理脚本,并在本地运行 node remove_phantom_notifications.js TIMESTAMP
:
|
|
比如清理 2025 年 9 月 25 日之后的幽灵通知:
node remove_phantom_notifications.js 2025-09-25T00:00:00Z
这里总结一些防御策略:
个人防御:
Gitcoin
、Fund
、Passport
、USDC
的通知自动打标签。组织防御建议
事后处置 SOP
github-foundation.com
GitHub × Gitcoin Developer Fund 2025
、refundable deposit
、Gitcoin Passport verification
本案例揭示了开源社区与 Web3 场景融合下的新型钓鱼诈骗,攻击者通过 GitHub 通知机制“借壳”,结合钱包授权与押金变现,危险之处在于大规模工程化与平台背书。有效防御需对资金和授权零信任,始终通过官方入口操作,个人与组织均应实施最小权限原则,提升安全意识。
2025-09-21 11:12:27
Verdent 是一款定位于“AI 时代资深开发助手”的 VS Code 插件,主打 Subagent 并发任务和自动代码质量验证。本文将分享试用体验,分析其亮点与不足,并探讨其在开发者工作流中的实际价值。
最近我获得了 Verdent 的试用资格,并在 VS Code 中安装了该插件。Verdent 由言创万物(Codeck)推出,是其首款产品,旨在帮助开发者在 AI 时代更高效成长。官方宣传语为:“Human developers will thrive in the AI era”,强调人类程序员与 AI 协作的重要性。他们的产品 Verdent 也在近日发布了,感兴趣的去官网了解详情 https://www.verdent.ai/ 。
当前市面上的 Vibe Coding 工具和 IDE 插件种类繁多,我也试用过不少。起初对 Verdent 并未抱太大期望,但经过几天体验后,发现其确实有一些值得分享的亮点和改进空间。
在 VS Code 中通过插件方式使用 Verdent,以下几个方面让我印象较好:
虽然 Verdent 的能力较强,但在细节体验上还有一些不足:
@
选择功能虽强大,但希望能一键选中已打开文件或终端输出。也支持通过键盘选择历史 prompt 和自定义 prompt,但整体体验仍有提升空间。这也是多数 AI 编程插件的通病。总体来看,Verdent 的核心能力没有问题,但在用户体验细节上仍有优化空间。
根据官方资料,目前大多数 AI 代码工具存在“生成快但质量不稳,最终仍需人工 debug”的问题。Verdent 试图通过以下方式进行改进:
也就是说,Verdent 更关注“交付可用代码”,而不仅仅是“生成几行代码”。
Verdent 目前有两种产品形态,分别适用于不同开发场景:
Verdent 在细节体验上尚有改进空间,但整体定位更接近“开发助手”而非传统“代码补全工具”。其 Subagent 并发任务和自动代码质量验证等功能,为开发者带来了更高效的协作体验。
如果你对 AI 编程助手感兴趣,Verdent 值得关注,未来或许会有更多创新和功能完善。
2025-09-13 20:56:37
最近笔者在尝试各种工具构建 AI Agent(智能体),但是缺少一套方法论支撑,正好看到 Antonio Gulli 的这本新书 Agentic Design Patterns ,很好的总结了目前在构建智能体时使用的各种模式,比如 RAG、MCP、Memory 等,在此我整理成幻灯片和读书笔记分享给大家。
本书作者 Antonio Gulli,任职于 Google CTO Office。这本书的所有版税将捐献给救助儿童会。下面的幻灯片总结了书中列举的智能体的 21 种设计模式,并给出了示意图说明,此外你也可以在 Bilibili 上观看我的视频讲解。
Agentic 系统是一种能够感知环境、做出决策并自主执行行动以实现目标的计算实体。与传统软件不同,智能体具备自主性、主动性、响应性和目标导向的特性。其关键能力包括工具使用、记忆和通信。
Agentic 设计模式是经过实战检验的模板和蓝图,为智能体行为设计与实现中的常见挑战提供可复用解决方案。使用设计模式能提升智能体构建的结构性、可维护性、可靠性和效率,避免重复造轮子,并使开发者能专注于应用创新。
本书提炼了 21 个关键设计模式,涵盖从基础到高级主题,并结合 LangChain、LangGraph、Crew AI 和 Google Agent Developer Kit (ADK) 等主流框架进行实战演示。作者强调,虽然 AI 变化迅速,但这些模式和原则将成为智能体开发的基础模块,帮助大家关注核心理念。
AI Agent 是一种能够感知环境并采取行动以实现特定目标的系统。它遵循简单的五步循环完成任务:获取任务目标 → 扫描环境信息 → 制定计划 → 执行行动 → 学习与优化。AI Agent 市场正以惊人速度增长,预计到 2034 年将达到近 2000 亿美元。
AI 范式在短短两年内经历了巨大转变:
本书将 Agent 构建视为技术画布上的艺术创作。21 种 Agentic 设计模式是构建智能系统的工具箱,它们赋予大语言模型的认知能力以可靠性与目标性,使其超越简单的响应式模型,成为主动、目标导向、具备复杂推理与行动能力的 Agent。
这些模式的组合是 Agentic 设计的真正力量,将单一能力转化为强大的自主系统。