MoreRSS

site iconafoo | 王福强修改

连续创业者,20多年互联网与金融技术经验,前阿里巴巴高级技术专家,现福强科技CEO,分享技术、管理、商业和AI知识。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

afoo | 王福强的 RSS 预览

KVectors向量数据库准备开源啦~

2025-11-16 00:00:00

KVectors向量数据库准备开源啦~ -王福强的个人博客:一个架构士的思考与沉淀

KVectors向量数据库准备开源啦~

王福强

2025-11-16


前阵子老王说,

KVectors可以搞开源+商业服务的模式

虽然这个产品从一开始构思、设计到实现就没考虑过开源

但“听人劝吃饱饭”嘛

这几天简单思考了下

决定这样…

开源版 KVectors 向量数据库(kvectors-oss)

开源版KVectors向量数据库是最初版设计和实现,当时的设计前提是:

  1. 模型更新迭代太快,向量数据库中的向量可能因模型变更原因需要全量重新处理和存储;
  2. 数据衍生系统,所以,数据变更可以通过从原始数据源重新加载;
  3. 阶段性重新构建索引以提高性能与数据的新鲜度;

在这些前提下, 最初版的KVectors向量数据库的存储是APPEND_ONLY的,也就是只追加,不提供更新与删除等操作。(这也是前阵子金总说要基于这版打造商业方案,我心里没底儿的原因,因为还没经过实际场景检验。)

当然,除了APPEND_ONLY向量存储,还支持TRANSIENT类型的向量存储,这更多是便于测试或者用完即弃的场景。

向量索引方面,最初版支持如下索引类型:

  1. FLAT索引
  2. HNSW索引

看起来很少,对吧?

但其实这两个索引 + APPEND_ONLY 向量存储 已经可以满足大部分场景的需求,要知道头部向量数据库产品weaviate,其实也就是支持这两种索引,虽然它声称可以支持三种,但其实就是FLAT和HNSW再根据数据的生命周期再组合一下。

如果配合应用架构设计,这一版的KVectors向量数据库基本可以满足8成以上 AI 场景需求。

企业版 KVectors 向量数据库(kvectors-enterprise)

企业版 KVectors 向量数据库会在开源版基础上在如下方面进行增强:

  1. 更多的向量索引类型。除了支持开源版支持所有向量索引类型,企业版KVectors向量数据库还支持如下向量索引(Scala 版 IVF 索引和 IVF_RABITQ 索引,完全自主设计与实现!):
    • IVF(IVF_FLAT)
    • IVF_RABITQ
    • LSH
    • 更多…
  2. 更强劲的向量存储引擎
    • 支持全面CRUD操作的向量存储引擎与向量集合, 既允许用户极速向KVectors向量数据库注入高维向量,又支持根据业务场景对向量的数据与元信息进行更改。
  3. 更全面的商业服务与支持
    • 除了提供开箱即用的极速向量数据库产品,还为用户提供AI智能体与技术体系内的架构咨询与商业支持。
    • 总之,力求客户的钱花得值!

后续工作




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

AI、开源与微服务:老王两个观点,谈谈个人想法

2025-11-12 00:00:00

AI、开源与微服务:老王两个观点,谈谈个人想法 -王福强的个人博客:一个架构士的思考与沉淀

AI、开源与微服务:老王两个观点,谈谈个人想法

王福强

2025-11-12


在我还混过一段时间大中华区运维圈的时候,

有“南王北萧”的江湖称号

这里的老王就是当时的“南王”

现在是优维的老总

“感觉有用,但用处不大”

背景是成哥的SRE群里有人讨论AI到底有没有用

老王说:“感觉有用,但用处不大”

蚂蚁的一位同学说:“非常非常有用, 一天都少不了”

这里我觉得有意思的点是,

老板可能吃老王观点的比较多,

职场人士则是后面的观点比较多,

至于为啥,

自己想🤭

“开源+企业版和企业服务”

背景是群里聊到kvectors向量数据库,

我说还没想好怎么卖,

老王说: “开源+企业版和企业服务”

咋说呢

这确实过去的经典打法,

但我从一开始就没想走这条路,

为什么呢?

一个是时代变了

一个是成本结构不一样

再一个,前面有杭州智总的前车之鉴,

我也得清楚什么是自己的优势、什么又是自己的劣势,

如果劣势补不上,

起码别把自己的优势也扔了…

微服务

发现到了AI时代,

很多同学依然喜欢用微服务来打比方,

其实,

微服务没啥问题

中台也没啥问题

但小马想拉大车,

通常成了问题。




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

看了方三文对话段永平完整视频,谈几点给我的启发和感想

2025-11-12 00:00:00

看了方三文对话段永平完整视频,谈几点给我的启发和感想 -王福强的个人博客:一个架构士的思考与沉淀

看了方三文对话段永平完整视频,谈几点给我的启发和感想

王福强

2025-11-12


经营企业与投资企业

你不懂企业,搞投资其实也投不明白(就算赚钱了,也只是撞大运)。

智者迟疑

你看段的观点很多时候不会很确定的讲,绝对不会很绝对的非黑即白,看不懂的就是看不懂,不会用自己的hindsight(事后诸葛亮)来渲染最初决策的迟疑和忐忑。

没有差异化,就没有超额利润

但差异化又很难维持,没有差异化就是卷,卷完剩下的,才能开始赚钱。

关于AI和泡沫

跟我前几天的观点类似

  • https://mp.weixin.qq.com/s/LLPIc5A0fP5uGtxbYdwWlA?scene=1
  • https://x.com/afoo_me/status/1986621585919529032

阿朱说明年可能AI泡沫,我倒是比较乐观。就算是泡沫,也会是回调。AI的趋势是不可逆的,只要电力和算力成本将来下落,AI的普及会是everywhere现在能源和算力标品对于AI的普及,还是太“贵”了。

关于效率

效率的观点我是认同的,我一直觉得可口可乐其实就是靠效率构建了自己最稳定的护城河。

了解自己在竞争态势中的位置

段说:“不要觉得自己就是天选之子”,哈哈哈,但年轻人都是“我命由我不由天”,所以…🤪




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

KVectors向量数据库完成IVF_RABITQ索引的支持啦~

2025-11-11 00:00:00

KVectors向量数据库完成IVF_RABITQ索引的支持啦~ -王福强的个人博客:一个架构士的思考与沉淀

KVectors向量数据库完成IVF_RABITQ索引的支持啦~

王福强

2025-11-11


有点儿意想不到

写完代码直接跑测试

居然直接过了

没有任何运行期异常 🤪

测试结果跟个人的预期算是相符合吧

将SiftSmall一百万条向量数据灌入KVectors向量数据库之后

在没有构建索引之前先跑了一遍检索

作为对比指标

结果是这样的:

search 10000 vectors in 2280907 milli

然后花了7、8分钟构建索引:

完成 向量集合:ivf-rabitq-test-collection 总共 999999 向量的全量索引构建, 耗时: 0 天 0 小时 7 分钟 25 秒,索引名称:1762832256798

索引构建完成之后

重新跑一遍检索

结果是这样的:

search 10000 vectors in 342093 milli

跟之前纯粹的IVF_FLAT(或者叫IVF_LITE)索引相比

性能劣化了,从个位数毫秒到现在三十几毫秒

但也是合理的

因为IVF_RABITQ索引面向的是1亿~10亿这个规模的向量数据集

百万向量可能很多时候一个是clusters数量不多,另外一个就是很多计算都耗费在计算上了(跑的时候忘了加--add-modules jdk.incubator.vector虚拟机参数了)

但也只是猜测哈

因为后半段基于IVF_RABITQ索引的检索在跑的时候

金总跑过来要看看我新搬的办公室

就陪他溜达了会儿

也就没看到JConsole里CPU的消耗

在没有构建索引之前,纯粹full-scan的时候,CPU消耗其实不大:

Anyway

至此, 2025年双十一之际

KVectors向量数据库已经正式支持了如下几种业界主流的向量索引:

  1. FLAT
  2. HNSW
  3. HNSW+PQ
  4. IVF
  5. IVF_RABITQ
  6. LSH

软著申请提交后处于待审查状态

等再打磨打磨就可以开卖了🤪

当然,有对产品背后机理感兴趣的企业

也有系列企业培训哟(橙子科技已经连续采买了3期)

更多关于KVectors向量数据库的信息,欢迎访问福强科技官网了解「https://keevol.cn/#kvectors」




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

Claude Code后端模型服务切换三式

2025-11-06 00:00:00

Claude Code后端模型服务切换三式 -王福强的个人博客:一个架构士的思考与沉淀

Claude Code后端模型服务切换三式

王福强

2025-11-06


今天TVP群里有同学分享了自己使用claude code在各大模型服务之间辗转腾挪的实践方法,

恰好这几天看到点儿相关的信息和实践,

简单整理下分享给大家。

前情铺垫

大家都知道claude code是anthropic公司开发的命令行AI开发工具

它默认后端大模型接的是anthropic自己家的模型,

从最早就比较惊艳的 Claude sonnet3.5 到 现在的 Claude sonnet 4.5

后来各大模型厂商以及MaaS服务厂商为了兼容Claude系模型

对外提供的大模型服务API就跟Claude系模型的API兼容了

而兼容带来的好处就是

claude code这个工具可以无缝切换到这些模型

尤其是anthropic这家公司对大中华区一贯严格封堵的情况下

要想原汁原味

门槛还是挺高的

好在有了这些兼容的大模型API

大中华区起码可以享受到claude code的优质服务

配合后端其它大模型服务

也能媲美“特斯拉”了

使用脚本切换 claude code 后端模型服务

TVP群里有同学分享了他的最佳实践:

总结下来就是,

针对不同模型服务,

独立针对其创建claude code启动脚本:

截图内容版权归 TVP Leoobai 所有

使用脚本函数切换 claude code 后端模型服务

这个算是上一个方法的另一种实现思路,都归属于本地无中间服务器方案。

在.bashrc或者.bash_profile(甚至.profile)里针对不同的大模型服务商,定义不同的claude code启动函数,类似于(作者举例哈,没测试过,领悟思想就可以了🤣):

function glm() {
    export ANTHROPIC_AUTH_TOKEN=... # GLM的API key
    export ANTHROIC_BASE_URL=... # GLM的服务地址
    ...
    claude --dangerously-skip-permissions
}

function kimi(){
    ANTHROPIC_AUTH_TOKEN="xxx" ANTHROIC_BASE_URL="xxx" claude --dangerously-skip-permissions
}

function deepseek(){
    ...
}

这样,你每次只要在命令行敲 glm 或者 kimi 或者 deepseek 或者 …

就能启动使用不同大模型服务的claude code了。

使用独立的集中切换大模型服务中继与路由

比如你可以本地启动一个localhost上的claude code兼容的大模型服务,

然后claude code只连这个localhost上的大模型服务地址就可以了,

然后这个本地跑的大模型服务允许配置多个远程的claude code兼容的大模型服务,

想用哪个作为当前要用的大模型服务,就配置哪个是current就可以,甚至根据路由算法进行分发。

这种代理服务,你可以配合大模型自己vibe一个出来,

比如TVP群有同学也分享了他的类似工具:

你也可以用github上开源的项目,

既然这种需求那么强烈,

肯定已经有人搞了

比如: https://github.com/BenedictKing/claude-proxy

最后

happy vibe coding 🤪

我虽然知道这些路子,但其实我还是古早手工写代码多些,哈哈哈




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)

KVectors向量数据库赋能企业智能升级:大模型与向量数据库在“千人千面”商品推荐中的应用与实践

2025-11-04 00:00:00

KVectors向量数据库赋能企业智能升级:大模型与向量数据库在“千人千面”商品推荐中的应用与实践 -王福强的个人博客:一个架构士的思考与沉淀

KVectors向量数据库赋能企业智能升级:大模型与向量数据库在“千人千面”商品推荐中的应用与实践

王福强

2025-11-04


背景:橙子科技的推荐系统困扰

橙子科技作为综合平台电商,拥有百万级 SKU 商品库,涵盖 3C 数码、家居服饰、美妆护肤等全品类商品。其传统推荐系统基于关键词匹配与静态规则划分,在业务快速扩张中逐渐暴露三大核心问题:

  1. 覆盖率不足:中长尾商品(占比超 75%)因标题描述碎片化,传统检索召回率仅 58%,大量优质商品无法触达目标用户;

  2. 动态响应滞后:商品价格波动、库存变化需 4 小时才能同步至推荐列表,促销期间常出现 “已售罄商品仍推荐” 的尴尬场景;

  3. 个性化精准度低:依赖人工配置的推荐规则,无法捕捉用户潜在需求(如 “敏感肌适用的保湿精华” 这类语义需求),导致用户转化率长期低于行业均值。

为突破瓶颈,橙子科技选择KVectors 向量数据库与自研大模型结合,打造新一代智能推荐系统,核心目标直指 “全商品覆盖、实时动态适配、精准流量分配”。

核心解决方案:KVectors 驱动的智能推荐架构

技术架构设计:三层次协同体系

1 特征提取层

采用 “文本 + 视觉” 多模态特征转换:

  • 文本端:通过 Qwen3 模型将商品标题、参数、用户评价转换为 embedding 向量,精准捕捉 “抗初老”“轻薄透气” 等语义信息;

  • 视觉端:基于 Qwen3-VL 提取商品主图、详情图的视觉特征,解决 “同款不同名” 的匹配难题;

  • 向量融合:通过注意力机制将多模态向量融合为最终embedding 特征向量,写入 KVectors 数据库。

2 存储与检索层(KVectors 核心应用)

针对百万级商品规模设计优化方案:

  • 索引策略:对爆款商品(TOP 20%)采用 HNSW 索引,实现 < 10ms 低延迟检索;对长尾商品采用 IVF 索引,内存占用降低 62%;

  • 动态更新:通过 KVectors 的增量写入接口,商品价格、库存变更实现秒级同步

  • 混合查询:支持 “向量相似度 + 标量过滤” 混合检索,可快速筛选 “价格 < 500 元且相似度 Top 10” 的精准结果。

3 推荐决策层

大模型与 KVectors 协同运作:

  • 需求理解:大模型解析用户 query(如 “送给妈妈的抗皱面霜”),生成用户兴趣向量;

  • 多轮召回:先通过 KVectors 召回 Top 200 相似商品,再结合用户实时行为(如当前浏览、加购记录)二次筛选;

  • 动态排序:基于 “相似度得分 + 实时转化率 + 库存状态” 构建排序模型,输出最终推荐列表。

关键优化策略:直击三大核心痛点

覆盖率提升:打破长尾商品壁垒

传统关键词检索依赖 “精确匹配”,而 KVectors 的向量检索可捕捉语义关联。例如,用户搜索 “适合秋冬的保湿外套” 时,系统能召回标题含 “加绒加厚”“防风保暖” 的相关商品,而非仅局限于 “保湿” 关键词商品。同时,通过冷启动加速机制,新上架商品在 24 小时内即可通过初始特征向量进入推荐池,解决 “新品零曝光” 问题。

动态率优化:实时适配业务变化

基于 KVectors 的流处理能力,构建 “商品状态 - 推荐列表” 联动机制:

  • 当商品库存低于 10 件时,自动降低推荐权重;

  • 促销活动启动后,1 分钟内完成活动商品的特征加权与推荐位升级;

  • 用户行为实时反馈:点击某款商品后,后续推荐列表中同类商品相似度阈值自动下调 15%,增强关联性。

实时性保障:支撑高并发场景

KVectors 的分布式架构通过以下设计满足实时需求:

  • 按商品品类分片存储,单分片容量控制在 150 万条,避免热点问题;

  • 利用缓存层暂存高频访问的用户兴趣向量,查询响应时间缩短 40%;

  • 大促期间通过弹性扩容,单节点支撑峰值 20 万 QPS 无服务降级。

效果:数据驱动的业务增长

技术指标显著提升

指标 优化前 优化后 提升幅度
商品推荐覆盖率 58% 93% +60.3%
商品状态更新延迟 4 小时 2 秒 -99.9%
推荐列表响应时间 650ms 95ms -85.4%
长尾商品点击率 1.2% 3.8% +216.7%

业务价值持续释放

  1. GMV 大幅增长:精准的流量分配使高转化率商品曝光占比提升 35%,整体 GMV 增长 42%,其中长尾商品贡献 GMV 占比从 12% 升至 27%;

  2. 运营效率提升:人工配置推荐规则的工作量减少 70%,运营团队可将精力聚焦于活动策划而非规则维护;

  3. 用户体验优化:推荐列表 “猜你喜欢” 的点击率提升 58%,用户平均浏览时长增加 23%,复购率提升 8.5 个百分点。

核心价值总结:KVectors 的技术赋能逻辑

  1. 从 “精确匹配” 到 “语义理解”:向量检索突破传统检索的局限性,实现商品与用户需求的深度对齐;

  2. 从 “静态规则” 到 “动态适配”:秒级数据更新与实时行为反馈,让推荐系统紧跟业务与用户变化;

  3. 从 “流量集中” 到 “全域激活”:通过长尾商品覆盖与精准推荐,释放全品类商品的商业价值,最终实现 GMV 增长与用户体验的双赢。

关于KVectors向量数据库

KVectors 向量数据库是福强科技为AI场景打造的新一代技术产品,

采用全精度向量搜索与ANN索引等不同手段,

满足不同 AI 应用从测试到海量向量数据的全场景存储与检索(万、百万、千万、亿级全覆盖)。

不但搜索时延可以与业界头部向量数据库的毫米级对等(一百万向量中搜索一万向量平均时延 1.1毫秒/ms(IVF索引) ~ 6.8 毫秒/ms(HNSW索引),还只是在消费级硬件上),

而且API设计更加用户友好, 易接入、易部署、易运维。

已经在客服知识库、电商以图搜图、商品推荐等多个场景成功落地。

当然,通用RAG场景,更是不在话下。

欢迎更多有类似AI人工智能相关业务需求的企业了解和洽谈合作:

https://keevol.cn/#kvectors




「福强私学」来一个?

「福强私学」, 一部沉淀了个人成长、技术与架构、组织与管理以及商业上的方法与心法的百科全书。

footer img for kb.afoo.me

开天窗,拉认知,订阅「福报」,即刻拥有自己的全模态人工智能。

订阅「福报」
Copyright © 王福强个人版权所有 - Since 2004 (Everything is homebrewed with Pandoc and Markdown, little Scala also included.)