MoreRSS

site iconpanda995 | 熊猫不是猫修改

成都,程序员,摄影爱好,电子游戏爱好者。博客主要内容是NAS和电子产品评测。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

panda995 | 熊猫不是猫的 RSS 预览

【电子年货】我用极空间生成了拜年视频,包的!

2026-02-13 19:07:19

NAS、键盘、路由器······年轻就要多折腾,我是爱折腾的熊猫,今天又给大家分享最近折腾的内容了,关注是对我最大的支持,阿里嘎多

引言

没几天就过年了,每年过年的头几天各个明星以及一些虚拟吉祥物都会开始发拜年视频,今年熊猫估计也不例外。

随着AI的发展,不止是文字和绘图领域,25年在视频领域上也有非常大的进展,而最近字节跳动推出了效果非常震撼的Seedance2.0,于是今年熊猫准备玩点花活,用极空间部署火宝短剧项目,随会用极空间的LOGO来生成卡通形象,给大家拜个早年!

项目详情

使用体验

首先在使用前我们需要配置好对应的模型,而火宝提供了角色生成、剧本创作以及图像和视频多方面的生成,所以模型配置也涉及到了文本、绘图以及视频。

模型配置

火宝本身有自己的API站点,所以支持一键对接火宝自己的API,虽说支持的模型非常多,种类也很齐全,但这个价格就稍微有一丢丢贵了,大家可以参考一下。

模型情况

除了支持一键匹配自家的API,也可以手动对接第三方,熊猫这里依然是使用老张的API站点,毕竟便宜稳定种类多。(非推广:https://api.laozhang.ai/register/?aff_code=rDFp

模型列表

对于文本和绘图模型熊猫没什么说的,视频模型这里推荐用豆包或者即梦都可以,如果有钱可以试试Sora2.0这些,效果也非常不错。

模型设置

配置好API之后就可以开始创建项目,首先是给项目命名,下方可以选择视频的风格,提供的风格种类还是蛮多的,因为是拜年视频,又因为是虚拟形象,所以这里熊猫就用Q版的3D吧。

视频风格

创建好项目之后来到项目的编辑界面,这里会显示项目的概览、章节管理、角色管理、场景列表以及道具列表,我们点击下方的创建第一个章节。

项目概览

点击之后我们需要描述这个章节的内容,描述好内容之后点击提取角色和场景,项目会自动提取章节中的内容和场景。

章节内容

随后点击生成图片,这里会将刚刚提取的信息展示出来,接着需要对角色和场景进行图片生成,生成的效果如果不满意可以多次生成,直到有自己最满意的位置,同时也支持上传参考图。

图片生成

最后一步这是进行分镜的拆分,先利用AI进行分镜头生成,如果不满意一样可以进行多次的生成以达到自己最满意的情况,如果不想浪费token也可以手动对每一个分镜进行手动调整。

分镜头

支持的调整内容非常多,从镜头属性、镜头图片、视频生成到音效配乐等等,都可以进行设置,按照操作一步一步设置即可。

操作流程

每一个镜头的视频生成之后我们将素材都添加到素材库中,随后再进行视频的合成,这时候就可以得到最终的视频了。(熊猫仅生成了两段作为演示,剩下的大家自行探索)

视频时间线

最后的视频合成则不需要消耗Token了,因为熊猫这里的描述非常简单,所以视频的质量也很一般,不过咱只是做一个参考,具体可以自行去探索,给到的章节内容越丰富,你的视频越精致。

项目部署

火宝短剧有商业版和社区版,社区版也支持Docker部署,所以你可以直接将其部署在极空间NAS上。

项目的开源地址:https://github.com/chatfire-AI/huobao-drama。不过作者并没有提供Docker镜像,只是提供了Dockerfile文件,所以我们需要自行构建项目,不过熊猫这里已经构建好了,所以有需要的可以自行去拉取。

已构建镜像地址

项目还涉及到了文件路径的映射,所以这里熊猫也给出Compose文件,复制其中的内容粘贴到极空间Docker的Compose中就行。

services:
  huobao-drama:
    image: ghcr.io/panda-995/huobao-drama:latest
    container_name: huobao-drama
    ports:
      - "5678:5678"
    volumes:
      # 持久化数据目录(使用命名卷,容器内以 root 运行)
      - huobao-data:/app/data
      # 挂载配置文件(可选,如需自定义配置请取消注释)
      # - ./configs/config.yaml:/app/configs/config.yaml:ro
      # 注意:如果使用本地目录挂载,需要确保目录权限正确
      # 例如:- ./data:/app/data (需要 chmod 777 ./data)
    environment:
      - TZ=Asia/Shanghai
    extra_hosts:
      - "host.docker.internal:host-gateway"  # 统一支持所有平台
    restart: unless-stopped
    healthcheck:
      test: ["CMD", "wget", "--no-verbose", "--tries=1", "--spider", "http://localhost:5678/health"]
      interval: 30s
      timeout: 3s
      retries: 3
      start_period: 10s
    networks:
      - huobao-network
  
volumes:
  huobao-data:
    driver: local
  
networks:
  huobao-network:
    driver: bridge

其中的端口号如果有冲突记得更改,除此之外文件路径的映射可以通过极空间的查询路径功能来获取真实路径。

路径获取

镜像拉取并构建好之后就可以直接用极空间的远程访问功能打开项目了,也可以本地情况下使用浏览器加极空间NASIP与项目端口的形式打开。

远程访问

写在最后

最后,熊猫的粉丝极空间用户是相当的多,虽说视频并没有生成完,但这里还是提前祝大家新年快乐。

NAS近两年的竞争是越发的激烈,很多品牌都纷纷在开始下场进入这一赛道,但极空间目前凭借着自家易用性以及独具特色和好评的软件功能一直稳步发展,同时在创新上也推出了像是T2、T2S以及T6这样的产品来丰富自家的产品线,借这篇文章也是希望极空间能在2026年给大家带来更多有趣好玩的产品。

以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!
尾图

别再玩“小龙虾”了,我找到了更适合中国宝宝体质的MemU Bot

2026-02-10 15:23:25

最近 AI 圈最火的项目莫过于 ClawBot(以及相关的 Claude Computer Use 衍生项目)。热度虽高,但劝退率也极高。

如果你尝试过部署,就会发现:环境依赖复杂、权限配置繁琐、Docker 容器报错不断,甚至项目本身的名字和架构都变了几次,对新手极其不友好。更关键的是安全问题——将系统权限完全交给一个不稳定的项目,多少让人心里没底。

小龙虾

而除了ClawBot,最近我挖掘到了一个完美的“平替”——MemU Bot。它不仅开源,更是纯本地运行(Local-First),直接从物理层面解决了安全焦虑。最重要的是,它抛弃了复杂的虚拟机和 Docker,真正做到了“一键安装”。

项目介绍

方便才是好工具

首先是安装,MemU Bot 的安装逻辑非常接近常规软件,通过官网(memu.bot)下载安装包即可,官方文档也足够详尽。

飞书对接

在消息对接方面,MemU Bot 支持 Telegram(某报)、Discord、Slack 以及国内的 飞书。考虑到国内网络环境和易用性,我强烈推荐使用 飞书 进行对接。整个配置过程不需要敲代码,按照指引填入 Key 即可,属于“有手就行”的级别。

官方步骤

关于AI的对接,目前支持的也不多,但好在可以自定义,个人是比较推荐自定义的,因为不管是官方的服务还是各大AI的API,其实要用来玩这种主动式的AI,真的消耗不起,一句话基本就是十来万的Token。

应用设置

如果真的要用这东西,那我推荐有实力的哥们直接依靠本地算力,如果没有实力可以去试试美团的大模型,主打一个量大管饱,虽说能力一般,但这方面可以靠Skill和MCP来弥补。

美团模型

使用体验

首先我们要看他能做什么,基础的链接解析、文档总结、内容生成,这些常规 AI 都能做,不是我们关注的重点。

文章总结

MemU Bot 的核心价值在于 “系统级权限” 和 “长短期记忆”。它像一个 24 小时待命的系统管理员,能直接读取你的本地文件、运行进程和系统状态。

读取目录信息

你可以让 AI 扫描指定目录。它不仅是列出文件名,还能分析文件类型、用途。甚至,你可以直接问它:“我电脑现在的内存占用情况如何?”它会直接调用系统 API 反馈给你。

进程查看

当AI拥有如此大的权限之后,你就可以让AI来自动帮你整理文件,不需要再去手动整理,只需要一句话加上目录路径即可。

image.png

只需要给 AI 发送一条指令:“帮我整理这个目录下的文件,按模型类型分类。”
AI 会自动识别、创建文件夹并移动文件。这才是真正的自动化。

技能安装

如果基础功能满足不了你,MemU Bot 还支持 Skills(技能) 扩展。如果你不懂什么是skill,也不知道怎么安装以及安装那些比较好,也可以直接问它,他能帮你直接执行一条龙服务。

技能展示

如果你有开发能力,或者市面上没有现成的 Skill,你可以使用 skill-creator 工具,通过自然语言生成专属的定制化 Skill,极大地拓展了 AI 的能力边界。

系统状态报告

写在最后

经过三天的深度测试,MemU Bot 给我的感觉是:

相比 ClawBot 的激进和不稳定,MemU Bot 更像是一个成熟的“私人秘书”。

  1. 安全性:本地运行,所有敏感操作(如删除文件)都需要用户二次确认,且不索取 root/管理员 权限。
  2. 稳定性:即便遇到长 Token 导致模型限制,也能通过任务接续机制继续执行,不会直接崩溃。

项目

如果你手里有无限的 Token 配额,或者有一台高性能的本地主机,MemU Bot 绝对是目前体验最好的 AI Agent 落地形态之一。它褪去了“演示视频”里的浮夸,真正成为了能在生产力环境中使用的工具。
效果图

以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞、收藏,最后也希望能得到你的关注,咱们下期见!
尾图

“多快好省”,Kobra X一体化多色3D打印方案,入门用户的省心神器

2026-02-09 15:39:44

多色入门新标杆?

玩 NAS 的朋友,折腾到最后往往绕不开 3D打印。从前年“入坑”至今,熊猫手里的机器换了一茬又一茬,其中服役最久的当属纵维立方的 K3V2。

这台机器配合 ACE Pro 多色供料系统,陪我度过了近 1500 小时的打印时光,耗材也吞吐了二三十公斤。平心而论,K3V2 是一台好机器,但在高频的多色打印场景下,它依然存在两个让所有玩家头疼的物理痛点

废料多:每次换色产生的冲刷废料让人心疼。

时间长:独立供料盒导致线材回抽路径过长,换色等待时间太久。

K3V2机器

直到上个月,我注意到了纵维立方的新机——Kobra X。它不仅延续了多色方案,更在结构上针对“废料”和“效率”做了底层优化,最关键的是,它的价格叠加国补1500左右,这个价位下给到了最高19色的多色打印以及原生四色。
售价爆料

最后还是没忍住下手了,在使用了十来天之后,今天就来和大家聊聊,这台机器是否能成为多色打印的“新标杆”。

外观与硬件底子

纵维立方 KX 采用了一体化发货模式。开箱过程极度舒适:撕掉封条、移除填充泡沫、装上耗材架和铁氟龙管——全过程无需拧螺丝拼装,真正做到了“到手即用”。内部的防震填充非常扎实,有效避免了运输震动导致的轴体偏移。
开箱即用

相比 K3V2 的硬朗,KX 的底座四周采用了大弧度倒角,整机视觉更圆润现代。最赞的是顶置耗材架设计,虽然整机高度略有增加,但彻底省去了原本 ACE Pro 独立盒子占用的桌面空间,对于寸土寸金的桌面环境非常友好。
外观

这次升级的重头戏是集成了 ACE GEN2 多色方案的打印头。打印头保留了便捷的锁扣式设计,标配 0.4mm 硬化钢喷嘴,耐磨性更好,同时也支持 0.25/0.6/0.8mm 规格的快速替换。
打印头热端

在打印头模块的顶部标注了耗材的序号,进行多色打印时打印头的正面也会有相应的当前打印耗材序号的指示。
耗材提示

打印头的耗材序号一定要对应顶部耗材架的需要,不然会出现乱色的情况。顶部耗材架采用卡扣固定,稳定性非常不错,并且你也可以打印makeronline社区对应的KX顶部卡扣模型,实现放置干燥箱的效果,实测是支持这个重量的。
耗材架

这里要说一点我非常喜欢的改进,纵维立方KX的抛料装置对比K3V2提升了不少,抛料装置的稳定性和抗震性更强,解决了长期使用后容易出现的偏移问题,这其实很多人都没注意到,但这个细节提升的确是提升了体验。
抛料装置

这次KX将摄像头模块放在了右侧,提供了一个720P的摄像头,且通过算法也能实现异物检测炒面检测,异物检测这一点希望后续也能更新到K3V2上,真的很有用。
摄像头

打印尺寸上,纵维立方KX为260x260x260mm,这个尺寸也是家用3D打印机的主流尺寸,能满足大部分打印需求,即便涉及到更大件物品,也可以通过分件打印。
打印平台

屏幕尺寸为3.5寸电容触摸屏,UI做了一些升级,新的UI设计更为直观,操作逻辑个人觉得也更舒服一点。
屏幕

省时省料的关键-ACE GEN2

根据官方的信息,纵维立方KX的四色打印在同模型同类型机器的情况下,打印时长会节省差不多一半的时间,且产生的废料也会少非常多,而这一切都是依靠集成了ACE GEN2的全新打印头模块
打印头

相较于传统依赖外挂多色换料盒子的方案,纵维立方KX搭配线材上置设计 + 集成式进退料机构,把多色打印的核心换料、送料组件全部整合在打印机主机本身,从硬件结构上实现单机原生支持多色打印,而非同类机型 “主机 + 额外外挂配件” 的组合式多色方案。
多色方案

同时切刀的位置进行了优化,距喷嘴仅 10mm,退料距离大幅缩短(从 160mm 降至 30mm),综合换料长度缩短 81.25%,减少了机械连接、长距离线材传输的故障点,同时进退料机构优化让换料路径更简洁,从根源上降低了换料过程中的卡料、断料、切换失误等问题。
换色方案

也正因如此,纵维立方KX能实现单机原生四色,以及最多支持19色的打印,且原生四色的性价比更好,毕竟舍弃了独立多色盒子,这一部分钱至少解决了近千。
多色打印

通过单层四色打印测试可以看到,首层的质量非常不错,四色打印的连接处也没有混色的情况,打印效果超过了我的预期值。
IMG_20260208_173946.jpg

通过切片软件,在打印同一多色模型时目前手里的KX对比K3V2打印时间节省了42%左右,而耗材也能看到有54%的节省,和官方宣传的数值几乎是没有多大的误差。
时长测试

而除了“多快好省”,ACE GEN2 集成式打印头可通过自适应挤出力结构来适应不同硬度的材料,从而实现软硬混打。根据官方的信息目前支持68D的TPU材料,不过熊猫手头没有对应的TPU耗材,后续会买一点来测试一下。
软硬混打

总结

纵维立方一直都在创新上面不断下功夫,这次Kobra X的集成式打印头体验真的非常不错,天生四色+极短回抽+软硬混打,这就是这台机器的核心竞争力。

使用一周多,累计打印 60 小时,如果非要挑刺,那就是为了集成化设计,牺牲了原本 ACE Pro 盒子的主动烘干功能。在南方潮湿季节,可能需要配合额外的干燥箱使用。但用这点小麻烦,换来 40% 的效率提升 和 50% 的耗材节省,这笔账怎么算都划算。

以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞、收藏,最后也希望能得到你的关注,咱们下期见!
尾图

想要真正的私密分享?NasChat把NAS变成专属TG,隐私+自由

2026-02-08 15:38:41

NAS、键盘、路由器······年轻就要多折腾,我是爱折腾的熊猫—多面手博主!咱主打的就是一个 “技能不压身,干货不掺水”

引言

这两天,粉丝群里哀鸿遍野。不少小伙伴反馈,自己的 +86 号码在登录 某报(Telegram)时频频触发风控,不仅无法登录,甚至还弹出强制开通会员的提示。

虽然通过一些修改版的客户端还能勉强登录,但这件事再次提醒了我们:寄人篱下的数据,永远没有安全感。 只要服务器在别人手里,你的账号随时可能“失联”。

有没有一种聊天工具,既能像 TG 一样好用,又不需要传统的后端服务器,账号还完全属于自己? 前两天我挖到了一个极其有趣的项目——NasChat
项目介绍

这是一款基于去中心化理念打造的 NAS 聊天室,它利用 Nostr 协议作为连接节点。最大的亮点在于:它不需要传统的后端服务器和数据库,完全通过密钥进行身份验证。同时,它也拥有类似 某报 的“频道(群组)”功能。

项目体验

NasChat 的登录机制非常硬核。首次登录时,你可以设置一个账号名和密码,系统会利用 SHA-256 等算法为你生成一套密钥(公钥+私钥)

  • 注意:后续登录只需要这串密钥即可。由于系统(NasChat 容器本身)不存储任何用户信息请务必把你的私钥保存到安全的地方(如密码管理软件)。一旦丢失,神仙也找不回你的账号;一旦泄露,别人就能完全接管你的身份。

用户数据安全

进入项目后,你会发现 UI 设计相当成熟,布局逻辑与 某报 并没有太大差异,上手成本几乎为零。

左侧功能区:涵盖了会话列表、频道订阅、在线用户、历史消息以及私聊板块。

中间区域:核心聊天窗口,支持文字、Emoji 表情以及附件上传(图片、视频等)。

右侧区域:显示当前频道信息、连接的 Nostr 协议状态以及媒体文件归档。

界面

项目内置了一些Nostr协议地址,这里单独说一下这个协议。通俗来讲就是一个开放的通讯协议,你自己生成账号(公私钥),内容同时存到多个中继器,你自己管账号、选服务器、数据由多方备份;一个中继器删你,你换其他中继器照样玩,不会被 “全网封号”。

设置

在设置中你可以添加或删除中继节点,而通过中继节点你可以连接全球各个地区的频道,而协议地址其实百度或者谷歌一下就有很多,可以自行添加。

频道

整体操作十分丝滑,聊天支持附件上传,基本满足日常沟通需求。唯一的遗憾是目前功能相对纯粹,没有 某报 那么多花里胡哨的机器人插件。

聊天功能

项目部署

NasChat 目前已在 GitHub 开源(地址:https://github.com/byteami/NasChat ),项目刚处于起步阶段,感兴趣的小伙伴可以去点个 Star 支持一下作者。

因为该项目不涉及复杂的后端数据库配置(完全依赖 Nostr 协议),部署非常简单。作者提供了标准的 Docker 镜像,我们直接用 Docker Compose 启动即可。

version: '3.8'

services:
  nas-chat:
    image: 1195864138/nas-chat:latest
    container_name: nas-chat
    restart: unless-stopped
    ports:
      - "3009:80"
    logging:
      driver: "json-file"
      options:
        max-size: "10m"
        max-file: "3"

配置说明:

ports: 3009:80 表示通过访问 NAS 的 3009 端口即可使用。如果 3009 被占用,可以改为其他端口(如 8080:80)。

logging: 限制了日志的大小,避免长期运行占满存储空间。

项目部署

部署完成后,在浏览器输入 http://NASIP:3009 即可访问。如果你有公网条件,配合反向代理,也可以作为一个私有的 Web 聊天端分享给朋友使用。

写在最后

项目的想法蛮不错的,且Nostr中继中还是有很多很有意思或者大人的频道,它的优势在于绝对的隐私掌控权无门槛的部署体验

虽然相比 某报,它在用户基数和活跃度上还有巨大差距(毕竟 Nostr 还是个相对小众的极客圈子)但如果部署玩玩还是不错的

以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!
尾图

NAS自建无广告音乐库,COCO音乐下载全网聚合,爽到飞起!

2026-02-06 19:00:21

NAS、键盘、路由器······年轻就要多折腾,我是爱折腾的熊猫—多面手博主!咱主打的就是一个 “技能不压身,干货不掺水”

引言

NAS上关于影视类的项目层出不穷,基本上每个月就会蹦出一两个新项目,但关于音乐方面的项目基本很少,而且即便是已经有的项目也会存在隔一段时间就失效的情况,之前介绍的好几个貌似都已经失效了一些了,刚好前两天看到了新项目,于是迫不及待就给大家分享出来。
项目特性

今天介绍的事COCO音乐下载站,作为新晋项目他提供了多源聚合搜索的功能,支持在线试听以及批量下载,且整个界面非常好看。项目地址为:https://github.com/markcxx/coco-downloader

项目预览

项目首页非常简洁,中间搜索框直接输入想要搜索的音乐就行,在搜索框的上面提供了七个源,你可以选择源进行搜索,也可以直接进行聚合搜索。
首页

项目还提供了暗黑模式,而且作者还专门做了涟漪效果,模式过渡非常丝滑。

输入你想要搜索的歌曲或者歌手,下方就会出现搜索结果,这里双击支持直接在线播放。
歌曲搜索

歌曲右边提供了下载操作,支持一键下载歌曲,不过仅支持标准音质,不支持无损格式的下载,同时在左边也提供了勾选,可以直接批量下载。
批量下载

其他的没什么介绍的了,毕竟这种项目就非常纯粹,没有什么花里胡哨的功能。

项目部署

项目提供了Dockerfile以及compose文件,但熊猫用作者提供的文件在NAS上构建会出现项目启动之后自动停止的问题,最后看了下Dockerfile文件,发现是引用了谷歌的字体同时对于后端的读取没对,于是便自己修改了一下。

修改之后构建好的Docker镜像依然是同步到了ghcr上面,镜像名:ghcr.io/panda-995/coco-downloader:latest,有需求的可以自行拉取镜像。
项目镜像

至于部署,资源的下载并不是直接下载到NAS,而是通过浏览器,所以不存在什么资源映射问题,只需要将3000端口暴露到本地即可。
容器部署

写在最后

音乐方面的项目一向非常少,后续熊猫也会多留意一下这一类项目,记得持续关注哦!

以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞收藏,最后也希望能得到你的关注,咱们下期见!
尾图

如何用AI打造自己的NAS项目,小白向教程,AI编程助手MonkeyCode

2026-02-05 17:13:16

引言

熊猫写过的 Docker 教程,不说一千也有八百了。但在面对浩如烟海的开源项目时,我们依然很难找到那个100% 契合自己需求的容器。往往是 90% 的功能都好用,唯独缺了那 10% 关键的个性化需求。想让原作者单独为你定制?那可能需要一点“钞能力”。

既然找不到完美的,为什么不自己造一个?

以前我会劝你放弃,但在AI编程高度成熟的今天,这已不再是天方夜谭。熊猫尝试过从微软Copilot到各类国产编程助手,它们在代码补全上确实表现出色。

但痛点依然存在:它们只管生成代码,不管运行环境。 也就是还得你自己折腾本地 Python、Node.js 环境,配置底层依赖。

有没有一种工具,既能写代码,又能把底层环境一并解决? 今天我们就来聊聊这个硬核的解决方案。
编程

项目介绍

为了让大家都能亲手构建并部署项目到 NAS,熊猫调研了大量支持云端环境的 AI 工具,最终锁定了一个国产开源项目——MonkeyCode。它更像是一个云端IDE(集成开发环境)。官方目前开放了20000点的测试算力,对于尝鲜和中小型项目开发来说,绰绰有余。

项目官网

除了支持本地自部署,MonkeyCode官方也提供了在线版直接使用,目前注册就送20000的算力,冲这个免费的算力就要注册先玩玩再说。
新用户赠送

手把手教学

前段时间有粉丝找我问了下有没有能记录课时的项目,类似于库存管理这种,不过因为他是老师,管理对象是“课时”而非“商品”。
需求

在执行操作之前,我们需要明确需求,明确需求之后其他的就简单了。通过沟通这里我得到了粉丝的一些需求:支持多用户、课时记录、能对课时进行加减操作、本地数据库、课时操作记录。

打开MonkeyCode,能看到侧边栏提供了智能任务、代码审查以及开发项目的功能,常规的AI,想要完成我们的需求,这就导致你的提示词毕竟尽可能精准,而MonkeyCode提供了完整的基于SDD的项目开发模式

打开MonkeyCode,你会发现它与常规Chat窗口不同。侧边栏集成了智能任务、代码审查、项目管理等模块。这里通过自然语言输入需求后,MonkeyCode会启动一套基于 SDD(软件设计说明书)的开发流程

原始需求 -> 产品设计 -> 技术设计 -> 任务列表

在这个过程中,AI深度参与每一个环节,而不是直接甩给你一段无法运行的代码。这保证了项目逻辑的严密性。
任务执行

下达任务之后MonkeyCode会先进行云端环境的构建,将其开发所需的环境准备好,相当于一个云端的一个独立沙箱环境
环境搭建

对比常规AI编程直接给你吐代码不同,MonkeyCode最大的技术优势在于“全链路接管”。根据需求制定项目计划,先进行随后根据计划一步一步来实现项目的搭建工作,且整个过程的每个步骤都可以进行溯源追踪。

  1. 理解需求:生成项目计划。
  2. 环境准备:自动配置语言环境与依赖。
  3. 分步实现:根据计划逐步编写并写入代码。
  4. 溯源追踪:每一步操作都有据可查。
    项目开发

最神奇的是当项目代码生成完毕后,无需拉取到本地,直接在云端运行并查看效果。如果发现 bug 或逻辑错误,直接对话修改,系统会自动热更新,直至满足需求。
在线预览

从项目立项到开发再到最后的测试,整个过程都是在云端进行,不需要你本地区配置什么环境,即便是小白也能直接上手打造属于自己的项目。
云端执行

云端执行的好处除了环境的配置一键化,另一个就是本地系统 0 残留,不需要担心污染本地环境,云端的开发项目每一个都是独立的沙盒中运行,即便是不满意当前的结果,直接销毁就行了。
云端环境

而除了自动生成的开发环境,你也可以手动去创建需要的开发环境,云端8核32GB的开发机,这配置相信很多人本地都没有,虽说有时长限制,但这个时间在使用时都可以进行续期操作。
开发环境创建

目前MonkeyCode提供了Claude Code、OpenAI Codex以及OpenCode三种开发工具,前两者都是如今非常成熟且使用众多的开发工具。
开发工具

在模型选择上,目前接入了DeepSeek、Kimi、Qwen、GLM等模型,其中强力模型内置了gpt、claude-sonnet、gemini等模型,注册附送的20000点算力足够折腾了。即便是用完了,MonkeyCode目前免费提供了glm4.7,日常使用完全是足够了。
模型选择

除了项目开发,熊猫日常用的最多的就是用它来进行Docker镜像的构建。很多优秀的GitHub项目没有提供Docker镜像,手动构建门槛很高。

利用MonkeyCode,我们可以上传代码压缩包或绑定Git仓库,让AI分析代码结构,自动生成并调试Dockerfile文件。
镜像构建

AI会进行测试构建,确保容器能正常启动。这意味着你可以把任何你感兴趣的开源项目,轻松转化为NAS可用的Docker镜像。
容器构建

除了对已有仓库的处理,MonkeyCode高度集成了GitHub、GitLab、Gitea、Gitee,支持在配置中直接绑定自己的git身份,在完成绑定之后,你可以将你开发的项目无缝push过去。
git绑定

而在git平台上,你可以在PR或者ISSUE手动召唤MonkeyCode-AI帮你审查项目代码,真正融入了 CI/CD(持续集成/持续交付) 的工作流。
AI审查

写在最后

在AI技术爆发的当下,编程的门槛正在被无限拉低。几年前,让不懂代码的小白开发一套系统简直是痴人说梦;而现在,这只是一个基础操作。
赠送点数

无论你现在是否需要,我都建议先了解并储备这类工具。毕竟,当下一个想要“量身定制”的需求出现时,你不再需要去求人,自己动手才是最大的乐趣。

以上便是本次分享的全部内容了,如果你觉得还算有趣或者对你有所帮助,不妨点赞、收藏,最后也希望能得到你的关注,咱们下期见!
尾图