2026-03-26 20:59:28
在 Linux 系统上,df 和 du 命令统计结果不一致是经常遇到的情况,其背后的原理涉及到文件系统如何管理磁盘空间和文件这两个不同的视角。
简单来说,核心差异在于:
df 报告的是文件系统级别的磁盘块使用情况,它查看的是磁盘块的分配情况。
du 报告的是文件级别的磁盘块使用情况,它通过累加每个文件的大小来计算。
df (Disk Free)工作原理:df 命令直接读取文件系统的超级块(Superblock) 中的信息。超级块中存储了整个文件系统的元数据,包括总空间、已用空间、空闲空间、inode 数量等。因此,df 的执行速度非常快,因为它不需要遍历所有目录和文件。
它统计什么:文件系统上所有已分配的磁盘块(包括被文件占用的和部分被保留的)。
du (Disk Usage)工作原理:du 命令会递归地遍历指定目录下的每一个文件和子目录,然后累加每个文件占用的磁盘空间大小。它的结果基于当前用户权限下能看到的文件。
它统计什么:所有文件实际占用的磁盘块的总和。
正是因为上述不同的工作原理,导致了以下几种常见的不一致情况:
这是导致 df 显示空间已用而 du 找不到对应文件的最主要原因。
原理:当一个文件正在被某个进程使用时,如果它被删除(rm),Linux 并不会立即释放其占用的磁盘空间。该进程仍然持有该文件的句柄,可以继续读写它。此时,该文件在目录中的条目(entry)消失了,所以 du 无法统计到它。但该文件占用的磁盘块在文件系统中仍然被标记为“已使用”,直到所有打开它的进程都关闭该文件后,空间才会被释放。
表现:df 显示磁盘使用率很高,但 du -sh / 统计根目录占用的总空间却小很多。
解决方法:
使用 lsof | grep deleted 命令查找已被删除但仍被进程打开的文件及其进程ID(PID)。
确认无误后,重启或终止相关进程(kill -9 <PID>),空间便会释放。
原理:默认情况下,Ext3/Ext4 等文件系统会保留约 5% 的磁盘空间(可由 tune2fs 调整)给 root 用户。这样做的目的是在磁盘空间写满时,为 root 用户保留一定的操作空间(例如执行必要的恢复命令),防止系统完全崩溃。
表现:df 会把这 5% 的保留空间计入“已用”空间,因为它对普通用户不可用。而 du 不会统计这部分空间,因为它不是被任何文件占用的。
计算:对于一个 100G 的分区,df 可能会显示 95G 可用,5G 已用(其中一部分就是保留空间),即使一个文件都没存。
原理:如果在 /data 目录下挂载了另一个磁盘(例如 /dev/sdb1),那么:
du -sh /data 会统计挂载在 /data 上的文件系统(/dev/sdb1)中所有文件的大小。
df /data 显示的是 /dev/sdb1 这个独立文件系统的使用情况。
通常这里是一致的,但如果 /data 目录本身在根分区(/)中有一些文件(在挂载前存在的),这些文件会被挂载操作“隐藏”。du 看不到它们(因为访问路径被挂载点覆盖了),而 df 统计的是两个不同的文件系统,所以不会产生混淆。
原理:稀疏文件是一种特殊文件,它允许在文件中存在“空洞”(大量连续的0字节)。应用程序(如虚拟机磁盘镜像)创建它时,文件系统不会为这些空洞分配实际的磁盘块。
表现:
ls -l 或 du --apparent-size 显示的是文件的逻辑大小,会非常大。
du(默认行为)显示的是文件实际占用的磁盘块大小,会小很多。
df 反映的是文件系统实际消耗的磁盘块,与 du 的默认行为一致。
示例:一个 100GB 的虚拟机磁盘文件,可能只实际占用 10GB 空间。du -h file 显示 10G,而 ls -lh file 显示 100G。
原理:文件系统自身需要消耗磁盘空间来存储元数据,如 inode 表、磁盘位图、日志文件(对于日志文件系统如 ext3/4, xfs)等。
表现:这部分空间被文件系统占用,但不对应任何用户文件。因此 df 会将其统计为“已用空间”,而 du 根本无法统计这些元数据,从而导致 df 的结果略大于 du。
| 特性 | df |
du |
|---|---|---|
| 数据源 | 文件系统超级块(元数据) | 递归遍历统计文件 |
| 统计视角 | 磁盘块分配情况 | 文件数据占用情况 |
| 速度 | 非常快(直接读元数据) | 相对慢(需要遍历文件树) |
| 包含保留空间 | 是 | 否 |
| 包含被删除但未释放的文件 | 是 | 否 |
| 包含稀疏文件“空洞” | 否(只算实际块) |
否(只算实际块,但 --apparent-size 算) |
| 包含元数据 | 是(元数据也占用块) | 否 |
当遇到磁盘空间不足报警,但 du 找不到大文件时,排查思路如下:
首先执行 df -h,确认哪个分区使用率高。
然后执行 du -sh /path/to/mountpoint,查看该分区下文件总大小是否与 df 结果近似。
如果差异很大,首要怀疑有文件被删除未释放:使用 lsof +L1 或 lsof | grep deleted 命令检查。
其次考虑是否有隐藏挂载点、稀疏文件等原因。
云盘扩容后扩展分区操作
云主机的云盘从控制台100G扩容到300G后,根目录 /dev/vda1 显示还是100G,这通常是因为云盘扩容后只增加了底层存储空间,操作系统内部的分区和文件系统还未扩展。云平台的控制台扩容只是扩大了"物理磁盘"的容量,后续还需要在系统内部进行分区和文件系统的扩展。
1.确认底层磁盘容量
在操作系统内执行 lsblk 命令-4-5,它可以查看磁盘本身和分区的真实容量。
如果 lsblk 显示 /dev/vda 本身已经是300G,而其下的分区 /dev/vda1 还是100G,这就证实了是分区没有扩展-1-8。
2.扩展分区
确认是分区问题后,需要扩展分区以填满磁盘的可用空间。推荐使用 growpart 工具-5,它能够自动调整分区大小。
growpart /dev/vda 1
注意:命令中 vda 和 1 之间的逗号后有一个空格-5。完成后,再次运行 lsblk 检查,此时 /dev/vda1 的大小应该显示为300G左右。
3.扩展文件系统
分区扩展后,最后一步是扩展文件系统,这样才能让操作系统真正使用新增的空间。需要根据文件系统类型选择相应的命令。
如果文件系统是 ext4(常见于CentOS、Ubuntu等):
resize2fs /dev/vda1
如果文件系统是 XFS(常见于较新版本的CentOS、RHEL):
xfs_growfs /
注意:对于XFS文件系统,需要指定挂载点(此处根目录为 /),而不是设备名。
在进行任何磁盘操作前,请务必注意以下几点:
命令匹配:务必确保扩展文件系统的命令与系统上的文件系统类型匹配,否则可能报错或无效-5。
参考:
2026-03-24 09:10:35
李宏毅老师是台湾大学电机工程学系的教授,在机器学习和生成式AI领域的教学全球知名,尤其在华语社区拥有极高声誉。YouTube上的课程累计超过30万订阅,影响力横跨学界与业界。李老师的的教学风格以生动、幽默著称,擅长用“宝可梦 vs 数码宝贝”等通俗易懂的例子,将复杂的深度学习、Transformer等前沿技术讲得清晰透彻,被许多学习者誉为“AI领域最好的启蒙老师之一“。
个人网站: https://speech.ee.ntu.edu.tw/~hylee/index.php
YouTube 频道: https://www.youtube.com/@HungyiLeeNTU
课程观看列表: https://www.youtube.com/@HungyiLeeNTU/playlists
李宏毅老师近两年的课程紧跟技术前沿,主要可以分为两大核心:
1. 《生成式人工智能导论》 (Introduction to Generative AI)
学期:2024 春季
课程内容详细介绍:这是一门面向初学者的大规模课程,旨在帮助学习者掌握生成式AI(如ChatGPT、AI绘图)的基础原理、技术演变和应用场景。课程不仅讲解理论,更侧重于探讨如何有效利用现有的大型语言模型(LLM),内容涵盖提示工程、任务拆解、让AI使用工具等实用技巧。这门课在台大吸引了超过1000名学生选修,其中包括近200名文学院学生,足以证明其入门友好性和跨学科影响力。
适合人群:对AI感兴趣,希望系统了解生成式AI原理和应用,或想提升与AI协作效率的学习者。
2. 《机器学习》 (Machine Learning)
学期:2025 春季
课程内容详细介绍:这是李宏毅老师的经典招牌课程,2025年版本进行了重大改革。内容从传统的深度学习基础,全面转向大语言模型(LLM)时代最前沿的技术,重点包括:
AI Agent(人工智能智能体):讲解AI如何感知、规划、行动和使用工具。
RAG(检索增强生成):介绍如何让大模型结合外部知识库以生成更准确的答案。
模型内部机制与可解释性:深入探讨语言模型的“黑盒子”,分析神经元如何运作。
模型训练与优化:涵盖预训练、后训练、模型合并(Model Merging)以及像DeepSeek-R1这样的模型如何进行“深度思考”。
适合人群:已具备一定机器学习基础,希望深入掌握LLM、AI Agent等当代核心技术的学习者。
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2026-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Introduction to GenAI and ML | https://speech.ee.ntu.edu.tw/~hylee/GenAI-ML/2025-fall.php |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2025-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Spring | Introduction to Generative AI | https://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Linear Algebra | https://voidful.github.io/LA_2023_fall/2023-fall.html |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2023-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Linear Algebra | https://googly-mingto.github.io/LA_2022_fall/2022-fall.html |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2022-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Linear Algebra | https://speech.ee.ntu.edu.tw/~hylee/la/2021-fall.php |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Linear Algebra | http://speech.ee.ntu.edu.tw/~tlkagk/courses/LA_2020/policy.pdf |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2020-spring.php |
| Spring | DLHLP (Deep Learning for Human Language Processing) | https://speech.ee.ntu.edu.tw/~hylee/dlhlp/2020-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Linear Algebra | https://speech.ee.ntu.edu.tw/~hylee/la/2019-fall.php |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2019-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Linear Algebra | https://speech.ee.ntu.edu.tw/~hylee/la/2018-fall.php |
| Spring | MLDS (Machine Learning and Deep Structured) | https://speech.ee.ntu.edu.tw/~hylee/mlds/2018-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2017-fall.php |
| Spring | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2017-spring.php |
| Spring | MLDS (Machine Learning and Deep Structured) | https://speech.ee.ntu.edu.tw/~hylee/mlds/2017-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | ML (Machine Learning) | https://speech.ee.ntu.edu.tw/~hylee/ml/2016-fall.php |
| Spring | Linear Algebra | https://speech.ee.ntu.edu.tw/~hylee/la/2016-spring.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | MLDS (Machine Learning and Having It Deep and Structured) | https://speech.ee.ntu.edu.tw/~hylee/mlds/2015-fall.php |
| 学期 | 课程名称 | 链接 |
|---|---|---|
| Fall | Circuit | https://speech.ee.ntu.edu.tw/~hylee/circuit/2014-fall.php |
2026-03-20 10:30:06
前面两篇文章主要介绍了大模型GPU资源需求计算及使用场景:大模型GPU显存算力需求计算 | 大模型推理资源需求计算及使用场景示例。
在常见并发推理场景中,显存需求会随着并发数的增加而显著增长,因为KV Cache是显存占用的主要变量。下面我们来系统性地介绍并发推理的显存计算方法,并通过7B、32B、70B三个模型的示例进行全面评估。
总显存 = 模型参数 + KV Cache + 中间激活值 + 系统开销
KV Cache是并发场景下显存增长的主要来源,其精确计算公式如下-7:
KV Cache显存(GB) = 2 × 最大并发请求数 × 序列长度 × 层数 × 隐层维度 × 精度字节数 ÷ (1024³)
其中:
2:Key和Value两份缓存
最大并发请求数:服务能同时处理的请求数量
序列长度:输入+输出的总token数
层数:Transformer层数
隐层维度:每个token的表示维度
精度字节数:FP16为2,INT8为1
KV Cache 大小和 并发数有关,和 batch size 无关;batch 只影响一次计算的规模,不改变 KV 总量。
vLLM通过gpu_memory_utilization参数控制显存分配-7:
可用显存 = 总GPU显存 × gpu_memory_utilization 模型权重显存 + KV Cache显存 ≤ 可用显存
通常设置gpu_memory_utilization = 0.8-0.9,预留部分显存用于系统开销和中间激活值-7-8。
CPU核心:建议≥并发数/2,用于数据预处理和调度
系统内存:需存储模型权重副本(用于CPU卸载场景)和数据缓存
以Llama 2-7B或DeepSeek-7B为例,假设模型配置:
层数:32
隐层维度:4096
精度:FP16(2字节/参数)
| 并发数 | KV Cache显存公式 | KV Cache显存 | 参数显存 | 总显存需求 | 说明 |
|---|---|---|---|---|---|
| 1 | 2×1×2048×32×4096×2÷(1024³) | 1.0GB | 14GB | ~16GB | 单用户场景 |
| 4 | 2×4×2048×32×4096×2÷(1024³) | 4.0GB | 14GB | ~19GB | 小团队使用 |
| 8 | 2×8×2048×32×4096×2÷(1024³) | 8.0GB | 14GB | ~23GB | 中等负载 |
| 16 | 2×16×2048×32×4096×2÷(1024³) | 16.0GB | 14GB | ~31GB | 高并发场景 |
| 并发数 | GPU显存需求 | 推荐GPU配置 | CPU核心 | 系统内存 | 适用场景 |
|---|---|---|---|---|---|
| 4 | 19GB | 1×RTX 4090 24GB | 4-8核 | 32GB | 个人API服务 |
| 8 | 23GB | 1×RTX 4090 24GB | 8核 | 64GB | 中小团队 |
| 16 | 31GB | 1×A100 40GB 或 2×RTX 4090 | 8-16核 | 64-128GB | 企业级服务 |
优化提示:当并发数超过8时,单张RTX 4090 24GB已接近极限,建议使用张量并行(TP)分散到多卡-1。
以Qwen-32B或DeepSeek-32B为例,假设模型配置:
层数:64
隐层维度:5120
精度:FP16(2字节/参数)
| 并发数 | KV Cache显存公式 | KV Cache显存 | 参数显存 | 总显存需求 | 说明 |
|---|---|---|---|---|---|
| 1 | 2×1×2048×64×5120×2÷(1024³) | 2.5GB | 64GB | ~67GB | 单用户场景 |
| 4 | 2×4×2048×64×5120×2÷(1024³) | 10.0GB | 64GB | ~75GB | 小团队使用 |
| 8 | 2×8×2048×64×5120×2÷(1024³) | 20.0GB | 64GB | ~85GB | 中等负载 |
| 16 | 2×16×2048×64×5120×2÷(1024³) | 40.0GB | 64GB | ~105GB | 高并发场景 |
| 并发数 | GPU显存需求 | 推荐GPU配置 | CPU核心 | 系统内存 | 适用场景 |
|---|---|---|---|---|---|
| 4 | 75GB | 1×A100 80GB | 8-16核 | 128GB | 企业API服务 |
| 8 | 85GB | 2×A100 40GB(TP=2) | 16核 | 256GB | 中型负载 |
| 16 | 105GB | 2×A100 80GB(TP=2) | 16-32核 | 256-512GB | 高并发场景 |
vLLM配置示例(2×A100 80GB)-1:
vllm serve Qwen-32B \ --tensor-parallel-size 2 \ --max-num-seqs 16 \ --gpu-memory-utilization 0.9
以Llama 2-70B或DeepSeek-70B为例,假设模型配置:
层数:80
隐层维度:8192
精度:FP16(2字节/参数)
| 并发数 | KV Cache显存公式 | KV Cache显存 | 参数显存 | 总显存需求 | 说明 |
|---|---|---|---|---|---|
| 1 | 2×1×2048×80×8192×2÷(1024³) | 5.0GB | 140GB | ~146GB | 单用户场景 |
| 4 | 2×4×2048×80×8192×2÷(1024³) | 20.0GB | 140GB | ~161GB | 小团队使用 |
| 8 | 2×8×2048×80×8192×2÷(1024³) | 40.0GB | 140GB | ~181GB | 中等负载 |
| 16 | 2×16×2048×80×8192×2÷(1024³) | 80.0GB | 140GB | ~221GB | 高并发场景 |
| 并发数 | GPU显存需求 | 推荐GPU配置 | CPU核心 | 系统内存 | 适用场景 |
|---|---|---|---|---|---|
| 4 | 161GB | 2×A100 80GB(TP=2) | 16-32核 | 256GB | 企业API服务 |
| 8 | 181GB | 4×A100 40GB(TP=4) | 32核 | 512GB | 中型负载 |
| 16 | 221GB | 4×A100 80GB(TP=4) | 32-64核 | 1TB | 高并发场景 |
混合专家模型(MoE)的并发推理显存计算与稠密模型有所不同-6-9:
总显存 = 共享参数 + 专家参数 + KV Cache + 路由开销
其中:
假设模型配置-9:
专家数量E=256,每个专家参数量约2.6B
共享参数量约300B
精度:FP8(1字节/参数)
激活专家数K=8(Top-8路由)
| 并发数 | 显存需求 | 推荐GPU配置(EP并行) | CPU核心 | 系统内存 |
|---|---|---|---|---|
| 4 | ~350GB | 8×A100 80GB(EP=8) | 32核 | 512GB |
| 8 | ~380GB | 8×A100 80GB(EP=8) | 32-64核 | 1TB |
| 16 | ~450GB | 16×A100 80GB(EP=16) | 64核+ | 2TB+ |
关键提示:MoE模型通过专家并行(EP)可将专家参数分散到多卡,大幅降低单卡显存压力-6-9。
| 参数 | 作用 | 推荐值 | 说明 |
|---|---|---|---|
gpu_memory_utilization |
显存利用率 | 0.8-0.9 | 预留10-20%用于系统开销-7 |
max_num_seqs |
最大并发数 | 根据显存计算 | 控制KV Cache上限-8 |
max_num_batched_tokens |
批处理token上限 | 4096-8192 | 平衡吞吐与延迟-8 |
tensor_parallel_size |
张量并行度 | 2/4/8 | 模型放不下时启用-1 |
enable_expert_parallel |
专家并行开关 | True(MoE模型) | 对DeepSeek等MoE模型有效 |
| 量化精度 | 参数显存减少 | KV Cache显存减少 | 适用场景 |
|---|---|---|---|
| INT8 | 50% | 50% | 高并发、追求吞吐 |
| INT4 | 75% | 75% | 超大模型、资源受限 |
当KV Cache空间不足时,vLLM会触发抢占(Preemption)机制-8。为避免性能下降:
适当提高gpu_memory_utilization
启用分块预填充(Chunked Prefill)平衡预填充和解码请求-8
| 模型规模 | 参数显存 | 并发1 | 并发4 | 并发8 | 并发16 |
|---|---|---|---|---|---|
| 7B | 14GB | 16GB | 19GB | 23GB | 31GB |
| 32B | 64GB | 67GB | 75GB | 85GB | 105GB |
| 70B | 140GB | 146GB | 161GB | 181GB | 221GB |
| 模型规模 | 目标并发 | GPU配置 | CPU核心 | 系统内存 |
|---|---|---|---|---|
| 7B | 8 | 1×RTX 4090 24GB | 8核 | 64GB |
| 7B | 16 | 2×RTX 4090 24GB(TP=2) | 16核 | 128GB |
| 32B | 8 | 2×A100 40GB(TP=2) | 16核 | 256GB |
| 32B | 16 | 2×A100 80GB(TP=2) | 32核 | 512GB |
| 70B | 8 | 4×A100 40GB(TP=4) | 32核 | 512GB |
| 70B | 16 | 4×A100 80GB(TP=4) | 64核 | 1TB |
并发推理显存核心公式:总显存 ≈ 参数显存 + 2×并发数×序列长度×层数×隐层维度×精度
KV Cache是并发场景下的主要变量,与并发数成正比增长
MoE模型需结合专家并行(EP)优化-6,显存计算需考虑共享参数和专家参数的分布
CPU和内存需求:CPU核心数建议≥并发数/2,系统内存需能容纳完整模型权重
参考:
2026-03-14 21:16:52
这三部纪录片从不同视角展现了非洲草原上狮子真实而震撼的生活。这些狮王的故事也展现了非洲草原上不同的生存策略:暴力征服、团队协作、智慧统治。每种方式都有其优势和代价。当然,如果没有邪恶的两脚兽干预可能又是另外的结局了!
| 纪录片标题 | 核心主角 | 主要内容 |
|---|---|---|
|
《坏男孩联盟》 (又称《狮王之路》) |
"坏男孩联盟" 六头雄狮:恩格拉拉里克(Makulu)、瑞斯塔(Rasta)、大漂亮(Pretty Boy)、秃尾巴(Scar)、怪尾巴(Kinky Tail)、撒旦(Mr. T) |
讲述南非萨比森保护区传奇的"坏男孩联盟"从崛起到统治再到覆灭的完整故事。它们以强大的战斗力、广阔的领地以及极具戏剧性的兄弟情谊而闻名,被认为是狮子界的"顶流男团"。 |
| 《狮子兄弟-大草原求生》 |
"黑岩男孩"联盟 五兄弟雄师:奥洛希帕 (Oloseepa)、奥洛博尔 (Oloibor)、奥尔帕丹 (Olpadan)、洛伊西亚杜 (Loishiadu) 和洛科卢普 (Lokolup) |
聚焦于马赛马拉草原上"黑岩男孩"五兄弟的成长史。纪录片详细记录了它们如何从一个狮群中长大,最终组成强大的雄狮联盟,在充满暴力与竞争的大草原上艰难求生、建立自己的王国。 |
| 《永世仇敌:狮子与鬣狗》 |
一个狮群与多个鬣狗氏族 (传奇狮王银泰杜梅拉: "银泰杜梅拉"在斯瓦希里语中意为"狮子的命运"或"王者之狮") |
深入探讨非洲草原上狮子与鬣狗之间"不共戴天"的生存竞争。影片通过多个具体而微的故事(如雌狮莫苏米与鬣狗的恩怨、专杀鬣狗的传奇狮王银泰杜梅拉),展现了两个顶级掠食者之间为领地、食物和后代而展开的持久战。 |
看完这三部纪录片,相信你会有这种感觉:男人就该像雄师一样去战斗。

这是一部由探索频道制作的经典野生动物纪录片,讲述了南非萨比森保护区内一个传奇雄狮联盟——“坏男孩联盟”的兴衰史。
主角介绍:故事围绕一个由六头雄狮组成的强大联盟展开,核心成员包括带领兄弟们走向辉煌的首领恩格拉拉里克,以及最具代表性的两头年轻雄狮怪头和卷尾。它们从五只被驱逐的幼狮起步,在外来雄狮的带领下,逐渐成长为统治萨比森保护区广大地区的霸主。
精彩看点:
传奇崛起:纪录片详细记录了它们如何通过无数次残酷的战斗,击败并驱逐其他雄狮,最终建立起属于自己的“王朝”。
兄弟情谊:影片着重展现了雄狮之间罕见的深厚情感与紧密合作,它们不仅是猎手,更是彼此最坚实的依靠。
自然法则:在展现辉煌的同时,影片也忠实地记录了它们衰老、疾病以及与新兴势力斗争的过程,揭示了自然界生生不息的残酷法则。
《坏男孩联盟》的主角,也许是整个狮界历史上最富盛名、最具传奇色彩的雄狮联盟。
成员构成:由6头雄狮组成的超强联盟,按年龄和地位排列如下:
| 排名 | 名字 | 核心特点 |
|---|---|---|
| 老大 | 恩格拉拉里克 | 联盟绝对领袖,体型巨大,被称为“狮中之王”。童年坎坷,作为外来者寄人篱下,练就了坚毅隐忍的性格,一手将5个弟弟带大。吼声低沉而洪亮,极具辨识度。 |
| 老二 | 瑞斯塔 | 性格相对平和低调,在联盟中地位不高,但仍是战斗力不容小觑的成员。 |
| 老三 | 漂亮男孩 | 与老二为双胞胎,鬃毛俊美。他是老大的忠实拥护者,与老大关系最为亲密。 |
| 老四 | 秃尾巴 | 因尾巴上的毛球残缺而得名。个性强势,自视甚高,除了老大谁都不服,有“小霸王”之称,战力极强。 |
| 老五 | 怪尾巴 | 与老六是亲兄弟,尾巴形状奇特。与老六形影不离,感情深厚,战斗勇猛。 |
| 老六 | 撒旦 | 联盟中最年轻但最凶残、最好斗的成员,杀死狮子数量最多,鬃毛稀疏是其标志。野心勃勃,最终导致了联盟的内部分裂。 |
统治与陨落:它们从2005年左右开始横扫南非萨比森私人保护区,在巅峰时期几乎统治了所有狮群,据称在一年内导致保护区狮子数量锐减约40%,甚至杀死并吃掉其他狮子的幼崽和同类,因此获得了“坏男孩”(Mapogo,意为流氓或恶棍)的恶名。它们的强大不仅在于数量,更在于极致的团结和恐怖的战斗力。然而,随着2010年后新兴的“保卫者联盟”的挑战、成员间的内讧以及盗猎,这个传奇联盟最终走向瓦解,到2012年左右,六兄弟的故事彻底落幕。
◎b站在线观看:

这部纪录片由ARTE电视台出品,叙事非常有层次感,精彩地跟踪拍摄了这五头兄弟狮子在马赛马拉长达五年的生活,为我们呈现了一个关于亲情、成长与生存的完整故事。
第1集:登顶之路 (The Path to Dominance)
故事始于五兄弟的童年。纪录片讲述了它们如何在母亲的抚育下,与狮群的姐妹们一起成长。随着它们两岁生日到来,年轻的雄狮们必须面对离开母亲、独自生存的挑战。这一集的核心,就是记录这五个年轻的兄弟如何开始结成最初的联盟,在危机四伏的草原上迈出独立的第一步。
第2集:丰收季节 (The Season of Plenty)
随着年岁渐长,五兄弟的狩猎技巧愈发娴熟,开始展现出强大的统治力。但它们的生活并非一帆风顺,不仅要面对饥饿的威胁和狩猎的风险,还要应对狮群内部复杂的关系。与此同时,气候变化和角马大迁徙等自然挑战,也时刻考验着这个年轻联盟的智慧和韧性。
第3集:野牛之争 (The Buffalo Challenge)
这是联盟走向成熟的终章。此时,以首领奥洛博尔为核心的五兄弟,已经成为这片土地的统治者。它们的主要猎物是强壮且危险的非洲野牛,每一次捕猎都是生死一线的搏斗。这一集集中展现了它们在确立统治地位后,如何作为一支无坚不摧的团队,共同面对最艰巨的挑战,守护自己的领地与荣耀。
《狮子兄弟-大草原求生》的主角,生活在马赛马拉,是近年来备受关注的雄狮联盟。
成员构成:由5头年轻雄狮组成的兄弟联盟。
名字与由来:它们出生于2017年8月左右,来自“黑岩地区”,因此得名。这五兄弟的父亲是强大的索帕联盟,继承了父辈的优良基因。它们最近被正式命名为:奥洛希帕、奥洛博尔、奥尔帕丹、洛伊西亚杜和洛科卢普。
核心特点:与“坏男孩”的“恶名”不同,“黑岩男孩”以出色的捕猎能力著称,尤其以捕杀非洲水牛闻名,被称为 “水牛杀手” 。它们年纪虽轻,但发育良好,非常强势,已经接管了龙盖狮群。纪录片记录了它们如何在充满挑战的草原上成长、学习捕猎、应对竞争者,最终建立自己王国的艰辛历程,是一个关于成长、奋斗和兄弟情谊的励志故事。
| 名字 (英译) | 个性与特点 |
|---|---|
| Oloibor(奥洛博尔) | 五兄弟中最强壮、最具领袖气质的“大姐夫杀手”,是联盟无可争议的头领。 |
| Oloseepa(奥洛希帕) | 因腿部有伤而微微跛行,但这并不妨碍他成为联盟中最活跃的雄狮。 |
| Loishiadu (洛伊西亚杜) | 性格谨慎、内向,不像兄弟们那样爱出风头,常常独自待在一边。 |
| Lokolup (洛科卢普) | 总是紧紧跟随着兄弟们,是团队里忠诚的“小跟班”。 |
| Olpadan (奥尔帕丹) | 充满雄心壮志,捕猎时总是冲在最前面,是兄弟们中最出色的猎手。 |
值得一提的是,这部纪录片的影响力持续至今。直到2025年和2026年,还有大量网友在Bilibili等平台发布关于“黑岩男孩”联盟的最新动态和讨论,足见这个狮群在大家心中的地位 。
不过,关于这个传奇联盟,有一个令人难过的后续消息。2025年10月,有消息确认联盟成员之一 “奥胖” (Oloshipa,也即上文中的Olosiadu) 确认死亡,死因疑似与非法捕猎有关 。这篇报道详细讲述了黑岩男孩联盟从崛起到成员接连陨落的悲剧,并深刻反思了人类活动(如牧民扩张、栖息地萎缩、非法捕猎)对狮子生存造成的巨大威胁 。这不仅是一个狮群的故事,更是一记关于生态保护的警钟。
◎b站在线观看:黑岩男孩纪录片 - The Entire Life of the Lion Brothers
《永世仇敌:狮子与鬣狗》

这部由国家地理频道制作的纪录片,聚焦于非洲草原上狮群与鬣狗群之间延续数百万年的生存战争。
主角介绍:银泰杜梅拉是一头传奇雄狮,生活在博茨瓦纳乔贝国家公园的萨武蒂地区。它与其兄长曼迪弗组成了一个雄狮联盟,共同统治着“中央狮群”。影片中,由它领导的狮群与当地的鬣狗群结下了世代血仇,双方为了领地、食物和后代展开永无休止的争斗。
精彩看点:
宿敌之争:影片深刻剖析了狮子与鬣狗为何成为“永世仇敌”。它们互相伏击、掠夺对方的食物,甚至杀死对方的幼崽,但极少以对方为食,这种竞争本质上是对生存资源的终极争夺。
震撼故事:片中记录了多个惊心动魄的真实故事,如雌狮深夜被鬣狗群围攻而痛失幼崽,以及银泰杜梅拉带领狮群与鬣狗群展开的复仇与反复仇。
生存博弈:通过一个个生动的案例,影片将观众带入非洲荒野的核心战场,展现了物种间为生存而展开的智慧、勇气和力量的博弈。
传奇事迹:银泰杜梅拉对鬣狗有着刻骨的仇恨,其战斗风格以 “斩首行动” 著称。它曾两次在鬣狗群中,精准地锁定并击杀它们的首领(女王),导致整个鬣狗族群闻风丧胆。
第一战:在一次冲突中,它直接冲向鬣狗女王“老佛爷”,在几十秒内咬断了对方的脊椎,其余鬣狗一哄而散。
第二战:新上任的鬣狗女王不知天高地厚,在银泰杜梅拉的地盘挑衅。这头传奇雄狮再次出击,闪电般将其锁喉杀死,再次震慑了整个鬣狗群。
性格与结局:银泰杜梅拉体型在雄狮中并不算特别突出,但性格极其凶猛,无所畏惧,甚至敢于挑战大象。它杀鬣狗纯粹是为了消灭仇敌,而非捕食,因此从不食用。然而,它的威名和一身华丽的皮毛引来了人类的贪婪。在它的故事被纪录片传播后不久,它便死于偷猎者的枪口下,最终被制成了标本,令无数人为之扼腕叹息。
◎b站在线观看:超经典纪录片:鬣狗杀手银泰杜梅拉狮王传奇(英语完整版)
2026-03-11 01:23:40

OpenClaw是个啥?
简单说:OpenClaw 是一个开源的个人 AI 助手平台,支持通过多种消息渠道与 AI 交互,让你能把 AI 代理(agent)连接到日常生活和工作流中,处理生活工作中的各种任务。
系统要求
≥ 22node --version 检查) |
|
安装步骤
1.安装nodejs环境:macOS 升级node到指定版本
2.获取 AI 提供商密钥,免费试用阿里云(百炼平台)API体验额度:OpenClaw接入文档
核心权益: 每个模型 100 万 Tokens。
领取地址: 阿里云百炼控制台
领取步骤:
1)登录百炼控制台。
2)阅读并同意协议后,系统将自动开通阿里云百炼并发放免费推理额度。
特性: 有效期3个月。
支持系列: 千问全系、DeepSeek 全系、Kimi 系列、MiniMax 系列、GLM 智谱系列。
3.安装/配置OpenClaw:OpenClaw保姆安装教程 | OpenClaw橙皮书-从入门到精通.pdf
安装 OpenClaw:npm install -g openclaw@latest
初始化并安装守护进程:openclaw onboard --install-daemon
> npm install -g openclaw@latest 22:54:12 npm warn deprecated [email protected]: Use your platform's native DOMException instead added 534 packages in 59s 96 packages are looking for funding run `npm fund` for details > openclaw onboard --install-daemon 22:58:07 🦞 OpenClaw 2026.3.8 (3caab92) — Open source means you can see exactly how I judge your config. ▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄ ██░▄▄▄░██░▄▄░██░▄▄▄██░▀██░██░▄▄▀██░████░▄▄▀██░███░██ ██░███░██░▀▀░██░▄▄▄██░█░█░██░█████░████░▀▀░██░█░█░██ ██░▀▀▀░██░█████░▀▀▀██░██▄░██░▀▀▄██░▀▀░█░██░██▄▀▄▀▄██ ▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀ 🦞 OPENCLAW 🦞 ┌ OpenClaw onboarding │ ◇ Security ─────────────────────────────────────────────────────────────────────────────────╮ │ │ │ Security warning — please read. │ │ │ │ OpenClaw is a hobby project and still in beta. Expect sharp edges. │ │ By default, OpenClaw is a personal agent: one trusted operator boundary. │ │ This bot can read files and run actions if tools are enabled. │ │ A bad prompt can trick it into doing unsafe things. │ │ │ │ OpenClaw is not a hostile multi-tenant boundary by default. │ │ If multiple users can message one tool-enabled agent, they share that delegated tool │ │ authority. │ │ │ │ If you’re not comfortable with security hardening and access control, don’t run │ │ OpenClaw. │ │ Ask someone experienced to help before enabling tools or exposing it to the internet. │ │ │ │ Recommended baseline: │ │ - Pairing/allowlists + mention gating. │ │ - Multi-user/shared inbox: split trust boundaries (separate gateway/credentials, ideally │ │ separate OS users/hosts). │ │ - Sandbox + least-privilege tools. │ │ - Shared inboxes: isolate DM sessions (`session.dmScope: per-channel-peer`) and keep │ │ tool access minimal. │ │ - Keep secrets out of the agent’s reachable filesystem. │ │ - Use the strongest available model for any bot with tools or untrusted inboxes. │ │ │ │ Run regularly: │ │ openclaw security audit --deep │ │ openclaw security audit --fix │ │ │ │ Must read: https://docs.openclaw.ai/gateway/security │ │ │ ├────────────────────────────────────────────────────────────────────────────────────────────╯ │ ◇ I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue? │ Yes │ ◇ Onboarding mode │ QuickStart │ ◇ QuickStart ─────────────────────────╮ │ │ │ Gateway port: 18789 │ │ Gateway bind: Loopback (127.0.0.1) │ │ Gateway auth: Token (default) │ │ Tailscale exposure: Off │ │ Direct to chat channels. │ │ │ ├──────────────────────────────────────╯ │ ◇ Model/auth provider │ Custom Provider │ ◇ API Base URL │ https://dashscope.aliyuncs.com/compatible-mode/v1 │ ◇ How do you want to provide this API key? │ Paste API key now │ ◇ API Key (leave blank if not required) │ sk-xxxooo │ ◇ Endpoint compatibility │ OpenAI-compatible │ ◇ Model ID │ qwen-plus │ ◇ Verification successful. │ ◇ Endpoint ID │ custom-dashscope-aliyuncs-com │ ◇ Model alias (optional) │ Configured custom provider: custom-dashscope-aliyuncs-com/qwen-plus │ ◇ Channel status ────────────────────────────╮ │ │ │ Telegram: needs token │ │ WhatsApp (default): not linked │ │ Discord: needs token │ │ Slack: needs tokens │ │ Signal: needs setup │ │ signal-cli: missing (signal-cli) │ │ iMessage: needs setup │ │ imsg: missing (imsg) │ │ IRC: not configured │ │ Google Chat: not configured │ │ LINE: not configured │ │ Feishu: install plugin to enable │ │ Google Chat: install plugin to enable │ │ Nostr: install plugin to enable │ │ Microsoft Teams: install plugin to enable │ │ Mattermost: install plugin to enable │ │ Nextcloud Talk: install plugin to enable │ │ Matrix: install plugin to enable │ │ BlueBubbles: install plugin to enable │ │ LINE: install plugin to enable │ │ Zalo: install plugin to enable │ │ Zalo Personal: install plugin to enable │ │ Synology Chat: install plugin to enable │ │ Tlon: install plugin to enable │ │ │ ├─────────────────────────────────────────────╯ │ ◇ How channels work ───────────────────────────────────────────────────────────────────────╮ │ │ │ DM security: default is pairing; unknown DMs get a pairing code. │ │ Approve with: openclaw pairing approve <channel> <code> │ │ Public DMs require dmPolicy="open" + allowFrom=["*"]. │ │ Multi-user DMs: run: openclaw config set session.dmScope "per-channel-peer" (or │ │ "per-account-channel-peer" for multi-account channels) to isolate sessions. │ │ Docs: channels/pairing │ │ │ │ Telegram: simplest way to get started — register a bot with @BotFather and get going. │ │ WhatsApp: works with your own number; recommend a separate phone + eSIM. │ │ Discord: very well supported right now. │ │ IRC: classic IRC networks with DM/channel routing and pairing controls. │ │ Google Chat: Google Workspace Chat app with HTTP webhook. │ │ Slack: supported (Socket Mode). │ │ Signal: signal-cli linked device; more setup (David Reagans: "Hop on Discord."). │ │ iMessage: this is still a work in progress. │ │ LINE: LINE Messaging API webhook bot. │ │ Feishu: 飞书/Lark enterprise messaging with doc/wiki/drive tools. │ │ Nostr: Decentralized protocol; encrypted DMs via NIP-04. │ │ Microsoft Teams: Bot Framework; enterprise support. │ │ Mattermost: self-hosted Slack-style chat; install the plugin to enable. │ │ Nextcloud Talk: Self-hosted chat via Nextcloud Talk webhook bots. │ │ Matrix: open protocol; install the plugin to enable. │ │ BlueBubbles: iMessage via the BlueBubbles mac app + REST API. │ │ Zalo: Vietnam-focused messaging platform with Bot API. │ │ Zalo Personal: Zalo personal account via QR code login. │ │ Synology Chat: Connect your Synology NAS Chat to OpenClaw with full agent capabilities. │ │ Tlon: decentralized messaging on Urbit; install the plugin to enable. │ │ │ ├───────────────────────────────────────────────────────────────────────────────────────────╯ │ ◇ Select channel (QuickStart) │ Skip for now Updated ~/.openclaw/openclaw.json Workspace OK: ~/.openclaw/workspace Sessions OK: ~/.openclaw/agents/main/sessions │ ◇ Web search ────────────────────────────────────────╮ │ │ │ Web search lets your agent look things up online. │ │ Choose a provider and paste your API key. │ │ Docs: https://docs.openclaw.ai/tools/web │ │ │ ├─────────────────────────────────────────────────────╯ │ ◇ Search provider │ Skip for now │ ◇ Skills status ─────────────╮ │ │ │ Eligible: 3 │ │ Missing requirements: 48 │ │ Unsupported on this OS: 0 │ │ Blocked by allowlist: 0 │ │ │ ├─────────────────────────────╯ │ ◇ Configure skills now? (recommended) │ No │ ◇ Hooks ──────────────────────────────────────────────────────────────────╮ │ │ │ Hooks let you automate actions when agent commands are issued. │ │ Example: Save session context to memory when you issue /new or /reset. │ │ │ │ Learn more: https://docs.openclaw.ai/automation/hooks │ │ │ ├──────────────────────────────────────────────────────────────────────────╯ │ ◇ Enable hooks? │ Skip for now Config overwrite: /Users/buhaihui/.openclaw/openclaw.json (sha256 581c8ed510ec4559901d459d066548468f72796357a5832fcf102b01fed34664 -> fca7ba4e02ba957f8762db644b7d98787db07c3840d287029a5b9fa305a6f9c6, backup=/Users/buhaihui/.openclaw/openclaw.json.bak) │ ◇ Gateway service runtime ────────────────────────────────────────────╮ │ │ │ QuickStart uses Node for the Gateway service (stable + supported). │ │ │ ├──────────────────────────────────────────────────────────────────────╯ │ ◒ Installing Gateway service…. Installed LaunchAgent: /Users/buhaihui/Library/LaunchAgents/ai.openclaw.gateway.plist Logs: /Users/buhaihui/.openclaw/logs/gateway.log ◇ Gateway service installed. │ ◇ Agents: main (default) Heartbeat interval: 30m (main) Session store (main): /Users/buhaihui/.openclaw/agents/main/sessions/sessions.json (0 entries) │ ◇ Optional apps ────────────────────────╮ │ │ │ Add nodes for extra features: │ │ - macOS app (system + notifications) │ │ - iOS app (camera/canvas) │ │ - Android app (camera/canvas) │ │ │ ├────────────────────────────────────────╯ │ ◇ Control UI ─────────────────────────────────────────────────────────────────────╮ │ │ │ Web UI: http://127.0.0.1:18789/ │ │ Web UI (with token): │ │ http://127.0.0.1:18789/#token=b335b8d2ac131c84fb63ecf8d79ee2d14c8e1ded73f7aa3c │ │ Gateway WS: ws://127.0.0.1:18789 │ │ Gateway: reachable │ │ Docs: https://docs.openclaw.ai/web/control-ui │ │ │ ├──────────────────────────────────────────────────────────────────────────────────╯ │ ◇ Start TUI (best option!) ─────────────────────────────────╮ │ │ │ This is the defining action that makes your agent you. │ │ Please take your time. │ │ The more you tell it, the better the experience will be. │ │ We will send: "Wake up, my friend!" │ │ │ ├────────────────────────────────────────────────────────────╯ │ ◇ Token ────────────────────────────────────────────────────────────────────────────────────╮ │ │ │ Gateway token: shared auth for the Gateway + Control UI. │ │ Stored in: ~/.openclaw/openclaw.json (gateway.auth.token) or OPENCLAW_GATEWAY_TOKEN. │ │ View token: openclaw config get gateway.auth.token │ │ Generate token: openclaw doctor --generate-gateway-token │ │ Web UI keeps dashboard URL tokens in memory for the current tab and strips them from the │ │ URL after load. │ │ Open the dashboard anytime: openclaw dashboard --no-open │ │ If prompted: paste the token into Control UI settings (or use the tokenized dashboard │ │ URL). │ │ │ ├────────────────────────────────────────────────────────────────────────────────────────────╯ │ ◇ How do you want to hatch your bot? │ Do this later │ ◇ Later ───────────────────────────────────────────╮ │ │ │ When you're ready: openclaw dashboard --no-open │ │ │ ├───────────────────────────────────────────────────╯ │ ◇ Workspace backup ────────────────────────────────────────╮ │ │ │ Back up your agent workspace. │ │ Docs: https://docs.openclaw.ai/concepts/agent-workspace │ │ │ ├───────────────────────────────────────────────────────────╯ │ ◇ Security ──────────────────────────────────────────────────────╮ │ │ │ Running agents on your computer is risky — harden your setup: │ │ https://docs.openclaw.ai/security │ │ │ ├─────────────────────────────────────────────────────────────────╯ │ ◇ Shell completion ───────────────────────────────────────────────────────╮ │ │ │ Shell completion installed. Restart your shell or run: source ~/.zshrc │ │ │ ├──────────────────────────────────────────────────────────────────────────╯ │ ◇ Web search ───────────────────────────────────────╮ │ │ │ Web search was skipped. You can enable it later: │ │ openclaw configure --section web │ │ │ │ Docs: https://docs.openclaw.ai/tools/web │ │ │ ├────────────────────────────────────────────────────╯ │ ◇ What now ─────────────────────────────────────────────────────────────╮ │ │ │ What now: https://openclaw.ai/showcase ("What People Are Building"). │ │ │ ├────────────────────────────────────────────────────────────────────────╯ │ └ Onboarding complete. Use the dashboard link above to control OpenClaw.
使用OpenClaw
TUI 终端管理:openclaw tui

浏览器访问:openclaw dashboard

停止openclaw:
# 方法1:OpenClaw 官方停止命令
openclaw gateway stop
# 方法2:强制杀死所有 OpenClaw 进程(推荐)
pkill -f openclaw
# 方法3:杀死占用 18789 端口的进程(若端口被占用)
lsof -i :18789 | grep -v PID | awk '{print $2}' | xargs kill -9 2>/dev/null
| 命令 | 说明 |
|---|---|
openclaw --help |
显示所有命令 |
openclaw --version |
显示版本号 |
openclaw status |
显示频道健康和最近会话 |
openclaw dashboard |
打开控制 UI |
openclaw tui |
打开终端 UI |
openclaw docs |
搜索在线文档 |
openclaw doctor |
健康检查 + 快速修复 |
openclaw gateway # 启动本地网关 openclaw gateway --port 18789 # 指定端口 openclaw gateway --force # 强制启动(杀占用进程) openclaw gateway status # 查看网关状态 openclaw gateway stop # 停止网关 openclaw gateway restart # 重启网关 openclaw logs --follow # 跟踪网关日志
openclaw agent --message "任务描述" # 运行一次 agent openclaw agent --to +1234567890 --message "Hi" # 发送到指定目标 openclaw agents list # 列出所有 agent openclaw agents kill <id> # 终止 agent
openclaw channels list # 列出已登录频道 openclaw channels login --verbose # 登录新频道(显示 QR) openclaw message send --channel telegram --target @chat --message "Hi" openclaw message read <id> # 读取消息 openclaw directory lookup <name> # 查找联系人/群组 ID
openclaw memory search "关键词" # 搜索记忆 openclaw memory reindex # 重建索引
openclaw cron list # 列出定时任务 openclaw cron add # 添加任务 openclaw cron run <jobId> # 立即执行任务 openclaw cron runs <jobId> # 查看执行历史
openclaw config # 配置向导 openclaw config get <key> # 获取配置 openclaw config set <key> <value> # 设置配置 openclaw security audit # 安全检查 openclaw secrets list # 列出密钥
openclaw skills list # 列出可用技能 openclaw skills inspect <name> # 查看技能详情 openclaw plugins list # 列出插件 openclaw plugins install <name> # 安装插件
openclaw update check # 检查更新 openclaw update install # 安装更新 openclaw backup create # 创建备份 openclaw backup verify # 验证备份 openclaw reset # 重置配置(保留 CLI)
| 命令 | 说明 |
|---|---|
openclaw acp * |
Agent Control Protocol 工具 |
openclaw browser * |
管理浏览器(Chrome/Chromium) |
openclaw node * |
管理无节点主机服务 |
openclaw sandbox * |
管理沙盒容器 |
openclaw webhooks * |
Webhook 集成 |
openclaw models * |
模型发现与配置 |
openclaw sessions * |
查看存储的会话 |
openclaw approvals * |
管理执行审批 |
# 发送 WhatsApp 消息 openclaw message send --target +15555550123 --message "Hi" # 运行 agent 并发送回复 openclaw agent --to +15555550123 --message "总结今天的工作" --deliver # 开发模式(隔离状态) openclaw --dev gateway # 生成 Shell 补全 openclaw completion > ~/.bash_completion # 查看模型配置 openclaw models list
完整文档: https://docs.openclaw.ai/cli
参考: