2024-11-18 22:47:50
Go语言中Timer以及相关的Ticker、time.After、time.AfterFunc 等定时器最终是以四叉堆的数据形式存放的。
全局的 timer 堆也经历过三个阶段的重要升级。
常见的堆(heap)常常以二叉堆的形式实现。可是为什么Go timer使用四叉堆呢?
以最小堆为例,下图展示了二叉堆和四叉堆的区别:
父节点和子节点的索引计算也略有不同。二叉堆的父子索引如下:
|
|
四叉堆的父子索引如下:
|
|
他们的操作时间复杂度:
因为四叉树的高度相对更低,所以四叉堆适合数据量特别大,需要减少树的高度的场景, Go的timer很久以前(11年前)就使用四叉树来实现Timer的保存,当然Go开发者也是根据测试结果选择了四叉树,最早的这个提交可以查看: ## code review 13094043: time: make timers heap 4-ary (Closed)
在Go的运行时中,四叉堆的实现在 src/runtime/time.go
文件中,可以查看源码实现。timers
数据结构代表Timer的集合,每个P都有一个timers实例,用于维护当前P的所有Timer。
|
|
同时Timer
结构体还引用了Timers
, 这叫你中有我,我中有你,这样的设计是为了方便Timer的管理,Timer的创建、删除、执行都是通过Timers来实现的。
|
|
我们来看看对这个堆操作的一些方法。
timerHeapN
定义了堆是四叉堆,也就是每个节点最多有4个子节点。
|
|
堆常用的辅助方法就是siftUp
和siftDown
,分别用于上浮和下沉操作。
下面是上浮的方法,我把一些跟踪检查的代码去掉了。整体看代码还是比较简单的,就是不停的上浮,直到找到合适的位置。
|
|
类似的,下面是下沉的方法:
|
|
比上浮略微复杂,因为需要在兄弟节点中找到最小的节点,然后将当前节点下沉到这个位置。
对于一个任意的slice,我们可以把它初始化为一个四叉堆,方法如下:
|
|
当然timers还有一些辅助timer处理的一些方法,很多和四叉堆没有关系了,我就不一一介绍了,我主要介绍几个和四叉堆相关的方法。
这里吐槽一下,这个time.go文件中代码组织很乱,timer和timers的方法都穿插在一起。理论应该是timer方法和timers方法分开,这样更清晰。或者把timers抽取到一个单独的文件中。
|
|
增加一个timer到堆中:
|
|
d-ary 堆或 d-heap 是一种优先队列数据结构,是二进制堆的泛化,其中节点有d个子节点而不是 2 个子节点。因此,二进制堆是2堆,而三元堆是3堆。根据 Tarjan 和 Jensen 等人的说法,d-ary堆是由 Donald B. Johnson 1975 年发明的。
此数据结构允许比二进制堆更快地执行降低优先级操作(因为深度更浅了),但代价是删除最小操作速度较慢。这种权衡导致算法的运行时间更长,其中降低优先级操作比删除最小操作更常见。此外,d-ary堆比二进制堆具有更好的内存缓存行为,尽管理论上最坏情况下的运行时间更长,但它们在实践中运行得更快。与二进制堆一样,d-ary堆是一种就地数据结构,除了在堆中存储项目数组所需的存储空间外,它不使用任何额外的存储空间。
在Go生态圈已经有相应的库实现这个数据结构,比如ahrav/go-d-ary-heap,所以如果你有类似场景的需求,或者想对比测试,你可以使用这个库。
导入库:
|
|
下面的例子是创建三叉最小堆和四叉最大堆的例子:
|
|
往堆中增加元素:
|
|
从堆中移除最值:
|
|
返回但是不移除最值:
|
|
2024-11-17 17:17:13
今天在准备《秘而不宣》系列下一篇文章时,思绪飘散了,突然想到使用 Heap 的功能再加 HashTable (Map) 的功能,可以构造一种新的数据结构,然后把我聚合程序中的数据聚合数据结构替换掉,总之思绪翩翩。然后在网上搜了一下,这种数据结构其实早就有了,名字叫 HeapMap
。
HeapMap
(也叫做 PriorityMap
) 是一种结合了堆和哈希映射的数据结构,常用于需要按键排序并进行高效查找的场景。它可以在优先级队列的基础上,使用哈希映射来提供快速访问和更新。HeapMap
在实现过程中利用堆的有序性和哈希表的快速查找能力,以支持按键排序和常数时间查找。
Go 语言支付 Rob Pike 在他的 Rob Pike's 5 Rules of Programming 第 5 条就指出:
- Data dominates. If you've chosen the right data structures and organized things well, the algorithms will almost always be self-evident. Data structures, not algorithms, are central to programming.
数据为王。如果你选择了合适的数据结构并进行了良好的组织,算法通常会变得显而易见。编程的核心在于数据结构,而非算法。
所以,如果在合适的场景下,针对它的特点,使用 HeapMap 会取得事半功倍的效果。
HeapMap
的主要特点HeapMap
内部通过堆来维护键的顺序,可以快速获取最小或最大键。堆提供了插入和删除堆顶元素的 O(log n)
时间复杂度。HeapMap
同时使用哈希映射以支持快速查找。哈希映射的查找、插入、删除等操作在理想情况下时间复杂度为 O(1)
。HeapMap
适合需要频繁按键排序和快速查找的场景,比如带有优先级的缓存、调度系统、任务优先队列等。HeapMap
的基本结构你使用一个 container/heap
+ map
很容易实现一个 HeapMap
, 其实我们没必要自己去写一个重复的轮子了,网上其他语言比如 Rust、Java 都有现成的实现,Go 语言中也有一个很好的实现:nemars/heapmap
HeapMap
的实现nemars/heapmap
这个库是去年增加到 github 中的,我是第一个 star 它的人。我们看看它是怎么实现的。
|
|
Entry
代表这个数据结构中的一个节点 (元素、条目) , 它包含 key、value 值,还有优先级,index 记录它在堆的实现数组中的索引。
heapmap
代表 HeapMap
的实现,它包含两个字段,第一个字段其实就是 Heap
的实现,为了方便实现泛型,它就自己实现了一个堆。第二个字段就是一个 map 对象了。
数据结构定义清楚了,那就就可以实现它的方法了。它实现了一些便利的方法,我们值关注几个实现就好了。
|
|
读取h
字段或者m
字段的长度都可以。
返回root元素。
最小堆就是返回最小的元素,最大堆就是返回最大的元素。
|
|
弹出root元素。
|
|
注意涉及到元素的删除操作,要同时删除 map 中的元素。
其实作者没有实现 Push 方法,而是使用Set 方法来实现的。
|
|
Set方法有两个功能。如果元素的Key已经存在,那么就是更新元素,并且根据优先级进行调整。
如果元素的Key不存在,那么就是插入元素。
Get 方法就是获取任意的元素。
|
|
有一点你需要注意的是,这个数据结构不是线程安全的,如果你需要线程安全的话,你可以使用 sync.Mutex
/sync.RWMutex
来保护它。
2024-11-17 16:19:01
在现代多核处理器中,高效的缓存机制极大地提升了程序性能,而“伪共享”问题却常常导致缓存机制的低效。
cacheline 本文中有时又叫做 缓存行
在现代多核处理器中,三级缓存通常分为三级:L1、L2 和 L3,每一级缓存的大小、速度和共享方式都不同:
L1 缓存:这是速度最快的缓存,通常每个 CPU 核心都有独立的 L1 缓存。L1 缓存分为两个部分:一个用于存储指令(L1I),另一个用于存储数据(L1D)。L1 缓存的容量一般较小(通常 32KB - 64KB),但是读取速度极快,以极低的延迟为 CPU 核心提供服务。
L2 缓存:L2 缓存通常比 L1 缓存大一些,容量一般在 256KB - 1MB 左右,每个 CPU 核心通常也会有独立的 L2 缓存。虽然 L2 缓存的访问速度比 L1 缓存稍慢,但它仍然显著快于主存。
L3 缓存:这是三级缓存中容量最大的,通常在 8MB - 64MB 或更大。L3 缓存往往由所有 CPU 核心共享,并且主要用于减少核心之间的数据传输延迟。L3 缓存的读取速度比 L1、L2 缓存慢,但相对主存依然较快。对于多核处理器,L3 缓存是多核心之间协作的重要纽带。
CPU缓存将数据划分成若干个 cacheline
,使得 CPU 访问特定数据时,能以 cacheline 为单位加载或存储数据。cacheline
的大小通常是固定的,x86 架构中常见的 cacheline
大小是 64 字节,而 Apple M 系列等一些 ARM 架构处理器上可能达到 128 字节。
在 CPU 执行程序时,若数据在某级缓存中命中,整个 cacheline
会从该缓存加载到寄存器中;若数据不在 L1 缓存中,则会依次查找 L2、L3 缓存,并最终在主存中查找并加载到缓存。由于 cacheline
是缓存操作的基本单位,每次数据传输都是以 cacheline
为最小粒度的。
比如在 mac mini m2 机器是,我们可以查看此 CPU 的缓存行大小为 128 字节:
Linux 下可以查看另外一台机器的各级别缓存行大小为 64 字节:
伪共享 是指多个线程访问同一个 cache line 中的不同变量时,导致频繁的缓存失效(cache invalidation),从而大大降低程序性能。伪共享通常在多线程编程中发生,因为在多个线程中,如果两个或多个线程操作的变量在同一个 cache line 中,但它们并没有真正的共享关系,每个线程对其变量的写操作会导致其他线程的缓存失效。这样,CPU 核心会不断地将数据写回并重新加载,产生了不必要的资源浪费。
设有两个线程,各自操作两个独立的变量 x
和 y
:
|
|
如果变量 x
和 y
位于同一个 cache line 中,那么线程 A 更新 x
后,线程 B 也会因为缓存失效而重新加载 y
,尽管 B 实际上并未使用 x
的值。这种情况下,虽然两个变量并没有直接共享,但每次写操作都会导致另一方的缓存失效,从而形成了伪共享。
伪共享会对性能产生严重影响,但可以通过以下几种方法来优化:
cacheline
,以防止多个线程访问同一个 cacheline
。例如,可以在变量之间添加填充数据来分隔不同的 cacheline
(假定 CPU 缓存行是 64 字节):
|
|
虽然单线程不会出现伪共享的问题,但是单线程程序仍然有一些缓存优化的空间:
|
|
可以看到读取对齐的结构体性能要远远好于未对齐的结构体。
很多高性能的库都会采用 CacheLine 优化的数据结构,比如 Java 生态圈知名的 LMAX Disruptor。 Go 标准库中也有类似的优化,让我们一起来看看它的实现和应用场景。
我们支持,Go 语言支持不同的 CPU 架构,不同的 CPU 架构的缓存行的大小也可能不同,Go 语言是如何统一的呢?
方法很简单,就是针对不同的 CPU 架构,定义不同大小的缓存行。
首先定义统一的结构和变量:
|
|
然后针对不同的 CPU 架构定义不同的缓存行大小。
比如arm64的CPU, 文件go/src/internal/cpu/cpu_arm64.go
中定义了缓存行大小为128字节:
|
|
比如64bit的龙芯, 缓存行大小是64字节,文件go/src/internal/cpu/cpu_loong64.go
中定义了缓存行大小为64字节:
|
|
又比如x86和amd64的CPU, 缓存行大小是64字节,文件go/src/internal/cpu/cpu_x86.go
中定义了缓存行大小为64字节:
|
|
所以Go运行时是根据它支持的不同的 CPU 架构,定义不同的缓存行大小,以此来避免伪共享问题。
但是这个数据结构是定义在Go运行时internal
库中,不对外暴露,那么我们怎么用的?
没关系,Go的扩展库golang.org/x/sys/cpu
中提供了CacheLinePad
的定义,我们可以直接使用。
|
|
它的实现和Go运行时中的一样,只是把CacheLinePad
暴露出来了,所以我们可以在自己的项目中直接使用。
在这个系列的上一篇文章中,我们介绍了treap
, treap
使用在semTable
中,semTable
是Go运行时中的一个数据结构,用来管理semaphore
的等待队列。
|
|
等并发读取semTable
时,由于semTable
中的root
是一个semaRoot
结构体,semaRoot
中有mutex
,treap
等字段,这些字段可能会被不同的CPU核心同时访问,导致伪共享问题。
为了解决伪共享问题,它增加了一个Pad
字段,补齐字段的大小到CacheLineSize
,这样就可以避免伪共享问题。当然这里可以确定semaRoot
的大小不会超过一个CacheLineSize
。
mheap
结构体中展示了另外一种场景,将部分字段使用CacheLinePad
隔开, 避免arenas
字段和上面的字段之间的伪共享问题。
|
|
go/src/runtime/stack.go
中stackpool
结构体中也使用了CacheLinePad
,展示了另外一种用法:
|
|
因为item的大小不确定,可能小于一个CacheLineSize
,也可能大于一个CacheLineSize
,所以这里对CacheLinePad
求余,只需补充一个小于CacheLineSize
的字节即可。
一般软件开发中,我们不需要关心这些细节,但是当我们需要优化性能时,了解这些底层的实现,可以帮助我们更好的理解和优化程序。
2024-11-17 16:19:00
treap
是一棵二叉树,它同时维护二叉搜索树 (BST) 和堆的属性, 所以由此得名 (tree + heap ⇒ treap)。
从形式上讲,treap (tree + heap) 是一棵二叉树,其节点包含两个值,一个 key 和一个 priority,这样 key 保持 BST 属性,priority 是一个保持 heap 属性的随机值(至于是最大堆还是最小堆并不重要)。相对于其他的平衡二叉搜索树,treap的特点是实现简单,且能基本实现随机平衡的结构。属于弱平衡树。
treap
由 Raimund Siedel 和 Cecilia Aragon 于 1989 年提出。
treap 通常也被称为“笛卡尔树”,因为它很容易嵌入到笛卡尔平面中:
具体来说,treap
是一种在二叉树中存储键值对 (X,Y)
的数据结构,其特点是:按 X
值满足二叉搜索树的性质,同时按 Y
值满足二叉堆的性质。如果树中某个节点包含值 (X₀,Y₀)
,那么:
X ≤ X₀
(BST 属性)X₀ ≤ X
(BST 属性)在这种实现中, X是键(同时也是存储在 Treap 中的值),并且 Y称为优先级。如果没有优先级,则 treap 将是一个常规的二叉搜索树。
优先级(前提是每个节点的优先级都不相同)的特殊之处在于:它们可以确定性地决定树的最终结构(不会受到插入数据顺序的影响)。这一点是可以通过相关定理来证明的。
这里有个巧妙的设计:如果我们随机分配这些优先级值,就能在平均情况下得到一棵比较平衡的树(避免树退化成链表)。这样就能保证主要操作(如查找、插入、删除等)的时间复杂度保持在 O(log N) 水平。
正是因为这种随机分配优先级的特点,这种数据结构也被称为"随机二叉搜索树"。
Treap维护堆性质的方法用到了旋转,且只需要进行两种旋转操作,因此编程复杂度较红黑树、AVL树要小一些。
红黑树的操作:
插入
以最大堆为例
给节点随机分配一个优先级,先和二叉搜索树的插入一样,先把要插入的点插入到一个叶子上,然后跟维护堆一样进行以下操作:
删除
因为 treap满足堆性质,所以只需要把要删除的节点旋转到叶节点上,然后直接删除就可以了。具体的方法就是每次找到优先级最大的子叶,向与其相反的方向旋转,直到那个节点被旋转到了叶节点,然后直接删除。
查找
和一般的二叉搜索树一样,但是由于 treap的随机化结构,Treap中查找的期望复杂度是 O(logn)
以上是 treap 数据结构的背景知识,如果你想了解更多而关于 treap 的知识,你可以参考
在 Go 运行时 sema.go#semaRoot 中,定义了一个数据结构 semaRoot
:
|
|
这是Go语言互斥锁(Mutex)底层实现中的关键数据结构,用于管理等待获取互斥锁的goroutine队列。我们已经知道,在获取 sync.Mutex
时,如果锁已经被其它 goroutine 获取,那么当前请求锁的 goroutine 会被 block 住,就会被放入到这样一个数据结构中 (所以你也知道这个数据结构中的 goroutine 都是唯一的,不重复)。
semaRoot
保存了一个平衡树,树中的 sudog
节点都有不同的地址 (s.elem)
,每个 sudog
可能通过 s.waitlink
指向一个链表,该链表包含等待相同地址的其他 sudog
。对具有相同地址的 sudog
内部链表的操作时间复杂度都是O(1).。扫描顶层semaRoot列表的时间复杂度是 O(log n)
,其中 n
是具有被阻塞goroutine的不同地址的数量(这些地址会散列到给定的semaRoot)。
semaRoot
的 treap *sudog
其实就是一个 treap, 我们来看看它的实现。
增加一个等待的goroutine(sudog
)到 semaRoot
的 treap
中,如果 lifo
为 true
,则将 s
替换到 t
的位置,否则将 s
添加到 t
的等待列表的末尾。
|
|
① 是遍历 treap 的过程,当然它是通过搜索二叉树的方式实现。 addr
就是我们一开始讲的treap的key,也就是 s.elem
。
首先检查 addr
已经在 treap 中,如果存在,那么就把 s
加入到 addr
对应的 sudog
链表中,或者替换掉 addr
对应的 sudog
。
这个addr
, 如果对于sync.Mutex
来说,就是 Mutex.sema
字段的地址。
|
|
所以对于阻塞在同一个sync.Mutex
上的goroutine,他们的addr
是相同的,所以他们会被加入到同一个sudog
链表中。
如果是不同的sync.Mutex
锁,他们的addr
是不同的,那么他们会被加入到这个treap不同的节点。
进而,你可以知道,这个rootSema
是维护多个sync.Mutex
的等待队列的,可以快速找到不同的sync.Mutex
的等待队列,也可以维护同一个sync.Mutex
的等待队列。
这给了我们启发,如果你有类似的需求,可以参考这个实现。
③就是设置这个节点的优先级,它是一个随机值,用于保持treap的平衡。这里有个技巧就是总是把优先级最低位设置为1,这样保证优先级不为0.因为优先级经常和0做比较,我们将最低位设置为1,就表明优先级已经设置。
④ 就是将这个新加入的节点旋转到合适的位置,以保持treap的平衡。这里的旋转操作就是上面提到的左旋和右旋。稍后看。
对应的,还有出对的操作。这个操作就是从treap中移除一个节点,这个节点就是一个等待的goroutine(sudog
)。
dequeue
搜索并找到在semaRoot
中第一个因addr
而阻塞的goroutine
。
比如需要唤醒一个goroutine, 让它继续执行(比如直接将锁交给它,或者唤醒它去争抢锁)。
|
|
① 是遍历 treap 的过程,当然它是通过搜索二叉树的方式实现。 addr
就是我们一开始讲的treap的key,也就是 s.elem
。如果找到了,就跳到 Found
标签。如果没有找到,就返回 nil
。
④是检查这个地址上是不是有多个等待的goroutine,如果有,就把这个节点替换成链表中的下一个节点。把这个节点从treap中移除并返回。
如果就一个goroutine,那么把这个移除掉后,需要旋转treap,直到这个节点被旋转到叶节点,然后删除这个节点。
这里的旋转操作就是上面提到的左旋和右旋。
rotateLeft
函数将以 x
为根的子树左旋,使其变为 y
为根的子树。
左旋之前的结构为 (x a (y b c))
,旋转后变为 (y (x a b) c)
。
|
|
具体步骤:
y
设为 x
的父节点(②),x
设为 y
的左子节点(①)。b
设为 x
的右子节点(③),并更新其父节点为 x
(④)。y
的父节点为 p
(⑤),即 x
的原父节点。如果 p
为 nil,则 y 成为新的树根(⑥)。y
是 p
的左子节点还是右子节点,更新对应的指针(⑦)。
左旋为
rotateRight 旋转以节点 y 为根的树。
将 (y (x a b) c)
变为 (x a (y b c))
。
|
|
具体步骤:
右旋为
理解了左旋和右旋,你就理解了出队代码中这一段为什么把当前节点旋转到叶结点中了:
|
|
整体上看,treap这个数据结构确实简单可维护。左旋和右旋的代码量很少,结合图看起来也容易理解。 出入队的代码也很简单,只是简单的二叉搜索树的操作,加上旋转操作。
这是我介绍的Go秘而不宣的数据结构第三篇,希望你喜欢。你还希望看到Go运行时和标准库中的哪些数据结构呢,欢迎留言。
我会不定期的从关注者列表并点赞文章的同学中选出一位,送出版商和出版社的老师赠送的书,欢迎参与。
2024-11-17 16:18:48
位图(bitmap)是一种优雅而高效的数据结构,它巧妙地利用了计算机最底层的位运算能力。你可以把它想象成一个巨大的开关阵列,每个开关只有打开和关闭两种状态 —— 这就是位图的本质。每一位都可以独立控制,却又可以通过位运算实现群体操作。
在实际应用中,位图的威力令人惊叹。设想你需要在海量数据中查找重复的数字,传统的哈希表或数组都会占用大量内存。而位图却能巧妙地用一个比特位标记一个数字的出现情况,极大地压缩了存储空间。在处理10亿个不重复的整数时,位图仅需要125MB内存,相比其他数据结构动辄需要几个GB,效率提升显著。
位图的运用也体现在我们日常使用的数据库系统中。数据库会用位图索引来加速查询,尤其是对于性别、状态这样的枚举字段,一个位图就能快速定位满足条件的记录。比如在电商系统中,快速筛选出"在售且有库存"的商品,位图索引可以通过简单的位与运算瞬间得出结果。
在大规模系统的权限控制中,位图也显示出其独特魅力。用户的各项权限可以编码到不同的位上,判断权限时只需一条位运算指令,既高效又直观。比如一个CMS系统,可以用一个32位的整数表示用户的全部权限状态,包括读、写、管理等多个维度。
布隆过滤器更是位图思想的精妙应用。它用多个哈希函数在位图上标记数据,能够以极小的内存代价判断一个元素是否可能存在。这在网页爬虫、垃圾邮件过滤等场景下广泛应用。虽然可能有小概率的误判,但在实际应用中往往是可以接受的权衡。
正是由于以上特点,位图在处理海量数据、状态标记、数据压缩、快速统计等场景中表现出色。它用最简单的方式解决了最复杂的问题,这正是计算机科学之美的体现。
BitVec
和 BitMap
类似,只是关注点有些不同。BitVec更像是位操作的抽象数据类型,它强调的是向量化的位运算操作。比如在Rust语言中, bitvec 提供了一系列方便的接口来进行位操作。而Bitmap则更强调其作为"图"的特性,通常用固定大小的位数组来表示集合中元素的存在性。
BitVec 具有以下的优势:
在 Go 运行时的内部, cmd/compile/internal/bitvec 实现了一个位向量数据结构 BitVec
,在 ssa 活跃性分析中使用(bvecSet 封装了 BitVec)。在 runtime/stack.go 中实现了 bitvector
并在内存管理中使用。
我们重点看 BitVec
, 它的方法比较全。
BitVec 的结构体定义如下:
|
|
然后定义了一批位操作的方法:
这里可以看到 Go 内部实现也有一些"不规范"的方法,这些 Receiver 的名字不一致,叫做了 dst、bv、bv 1 三种名称,看起来是有深意的。dst 代表操作最后存储的位向量。不过 bv 1 就有点说不过去了,虽然也能理解,为了和参数中的 bv 2 保持一致。
我们可以挑几个方法看它的实现。
比如 And
方法:
|
|
就是求两个位向量的交集,这里用到了位运算 &
。逐个元素进行位与操作,然后存储到 dst 中。
可以看到如果使用SIMD指令,这里的性能会有很大的提升。
再比如Not
方法:
|
|
这里是对位向量取反,用到了位运算 ^
。然后对最后一个元素进行了特殊处理,清除了多余的位。
这里这一句bv.B[len(bv.B)-1] &= 1<<uint(bv.N%wordBits) - 1
可能难以理解,其实是为了清除最后一个元素中多余的位,这里的 1<<uint(bv.N%wordBits) - 1
就是一个掩码,用来清除多余的位。
再比如Count
方法:
|
|
这里是统计位向量中 1 的个数,用到了 bits.OnesCount32
方法,这个方法是一个快速计算Uint32中bit为1的个数的方法。
这里的实现都是比较简单的,但是在实际应用中,位向量的操作是非常高效的,可以用来解决很多问题。
如果你的项目中有这种需求,比如你要实现一个布隆过滤器/布谷鸟过滤器,或者你要实现一个高效的权限控制系统,那么位向量是一个非常好的选择。