About Soulteary | 苏洋

十年代码生涯,参与新浪、淘宝、美团、阿里云项目,贡献于人工智能知识传播,业余热衷WordPress、Traefik、Docker及游戏。

The RSS's url is : https://soulteary.com/feed/

Please copy to your reader or subscribe it with :

Preview of RSS feed of Soulteary | 苏洋

使用 Dify 和 AI 大模型理解视频内容:Qwen 2 VL 72B

2024-08-20 20:55:00

接下来的几篇相关的文章,聊聊使用 Dify 和 AI 大模型理解视频内容。本篇作为第一篇内容,以昨天出圈的“黑神话悟空制作人采访视频”为例,先来聊聊经常被国外厂商拿来对比的国产模型:千问系列,以及它的内测版。

Docker 环境下使用 Traefik v3 和 MinIO 快速搭建私有化对象存储服务

2024-08-05 15:06:00

上一篇文章中,我们使用 Traefik 新版本完成了本地服务网关的搭建。接下来,来使用 Traefik 的能力,进行一系列相关的基础设施搭建吧。本篇文章,聊聊 MinIO 的单独使用,以及结合 Traefik 完成私有化 S3 服务的基础搭建。

Docker 环境下使用 Traefik 3 的最佳实践:快速上手

2024-08-04 20:02:00

Traefik 最近终于发布了大版本升级后的第一个修正版本,或许是时候正式迁移程序到新版本了。

便携移动工作站,端侧 AI 大模型设备折腾笔记:ROG 幻 X 和 4090 扩展坞

2024-07-30 21:51:00

为了本地测试和开发更丝滑,最近入手了一套新设备 ROG 幻 X Z13 和 ROG XG Mobile 4090 扩展坞。基于这套设备,我搭了一套 Windows x WSL2 x CUDA 的开发环境。分享一下折腾记录,或许对有类似需求的你也有帮助。

算能端侧 AI 盒子 Stable Diffusion 一秒一张图:AirBox BM1684X

2024-07-29 22:47:00

本篇文章聊聊基于 端侧 AI 计算设备,20~30 瓦功耗运行大模型的算能 AirBox。

从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务

2024-07-28 21:41:00

本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。如果你需要将 Ollama 官方不支持的模型运行起来,或者将新版本 llama.cpp 转换的模型运行起来,并且想更轻松的使用 Dify 构建 AI 应用,那么本文或许会对你有所帮助。

2024 年中总结

2024-06-30 23:38:00

今年的年中总结比往年更早一些,下个月有些忙碌,所以就不做拖沓了。依旧根据惯例,从最简单的技术部分聊起。

福布斯 AI 50 榜单中唯一开源向量数据库:Weaviate

2024-06-27 15:43:00

本篇文章,聊聊福布斯全球网站前俩月发布的 2023 AI 50 榜单中的唯一一个开源的向量数据库:Weaviate。它在数据持久化和容错性上表现非常好、支持混合搜索、支持水平扩展,同时又保持了轻量化。官方主打做 AI 时代的原生数据库,减少幻觉、数据泄漏和厂商绑定。

低成本和颜值兼顾的 HomeLab 设备:HPE MicroServer Gen10(二)

2024-06-12 13:07:00

本篇文章,继续分享另外一台端午假期折腾的设备,HP MicroServer Gen10 一代。同样分享下我的折腾思路,希望能够帮助到有类似需求的你。

省心和颜值兼顾的 HomeLab 设备:HPE MicroServer Gen10 Plus v2(一)

2024-06-10 23:47:00

本篇文章,分享一台端午假期折腾的设备,HP Gen10 Plus v2,分享下我的折腾思路,希望能够帮助到有类似需求的你。