Go gcache 源码分析(图解)

大二小的宝 · · 3649 次点击 · · 开始浏览    
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。

概述

gcache是一个用go实现的并发安全的本地缓存库。他可以实现如下功能:

  • 指定缓存的的大小,初始化之时为cache设置size大小。
  • 支持多种缓存的策略:Simple、LRU、LFU、ARC
  1. Simple:最普通的缓存策略,根据先存入的先淘汰。
  2. LUR:Least Recently Used,意思是最近最少使用。LRU Cache 的替换原则就是将最近最少使用的内容替换掉。
  3. LFU:Least Frequently Used ,意思是最近最不常用。LFU Cache先淘汰一定时间内被访问次数最少的页面。
  4. ARC:Adaptive Replacement Cache,ARC介于 LRU 和 LFU 之间。
  • 支持多个回调函数
  1. LoaderExpireFunc:过期回调函数
  2. EvictedFunc:淘汰回调函数
  3. PurgeVisitorFunc:清除所有key回调函数
  4. AddedFunc:新怎key回调函数
  5. SerializeFunc:对value序列化回调函数
  6. DeserializeFunc:对value反序列化回调函数
  • 支持计数事件
  1. HitCount:命中次数
  2. MissCount:没有命中的次数
  3. LookupCount:查找次数
  4. HitRate:命中率
  • 使用singleflight机制,多个人请求一个key,保证只有一个真正获取数据其余等待结果。

简单使用

其实github上已经有了很详细的例子,其中有简单key/value、设置超时时间、设置淘汰策略、设置回调函数等各种例子。这里简单摘抄一些简单的例子:

简单key/value 设置

package main

import (
  "github.com/bluele/gcache"
  "fmt"
)

func main() {
  gc := gcache.New(20).
    LRU().
    Build()
  gc.Set("key", "ok")
  value, err := gc.Get("key")
  if err != nil {
    panic(err)
  }
  fmt.Println("Get:", value)
}

Get: ok

设置过期时间

package main

import (
  "github.com/bluele/gcache"
  "fmt"
  "time"
)

func main() {
  gc := gcache.New(20).
    LRU().
    Build()
  gc.SetWithExpire("key", "ok", time.Second*10)
  value, _ := gc.Get("key")
  fmt.Println("Get:", value)

  // Wait for value to expire
  time.Sleep(time.Second*10)

  value, err = gc.Get("key")
  if err != nil {
    panic(err)
  }
  fmt.Println("Get:", value)
}

Get: ok
// 10 seconds later, new attempt:
panic: ErrKeyNotFound

使用load回调函数

package main

import (
  "github.com/bluele/gcache"
  "fmt"
)

func main() {
  gc := gcache.New(20).
    LRU().
    LoaderFunc(func(key interface{}) (interface{}, error) {
      return "ok", nil
    }).
    Build()
  value, err := gc.Get("key")
  if err != nil {
    panic(err)
  }
  fmt.Println("Get:", value)
}
Get: ok

源码分析

实体和初始化

builder类
// 缓存builder对象,存放时间、大小和各种回调函数
type CacheBuilder struct {
    clock            Clock
    tp               string
    size             int
    loaderExpireFunc LoaderExpireFunc
    evictedFunc      EvictedFunc
    purgeVisitorFunc PurgeVisitorFunc
    addedFunc        AddedFunc
    expiration       *time.Duration
    deserializeFunc  DeserializeFunc
    serializeFunc    SerializeFunc
}
设置过期时间、策略、回调函数
// 设置策略 设置CacheBuilder的回调函数属性
func (cb *CacheBuilder) LRU() *CacheBuilder {
    return cb.EvictType(TYPE_LRU)
}

// 设置过期时间 设置CacheBuilder的Expiration属性
func (cb *CacheBuilder) Expiration(expiration time.Duration) *CacheBuilder {
    cb.expiration = &expiration
    return cb
}

// 设置驱除回调函数
func (cb *CacheBuilder) EvictedFunc(evictedFunc EvictedFunc) *CacheBuilder {
    cb.evictedFunc = evictedFunc
    return cb
}
build 输出cache对象
// 判断size和类型
func (cb *CacheBuilder) Build() Cache {
    if cb.size <= 0 && cb.tp != TYPE_SIMPLE {
        panic("gcache: Cache size <= 0")
    }

    return cb.build()
}

// 根据type来新建相对应的cache对象
func (cb *CacheBuilder) build() Cache {
    switch cb.tp {
    case TYPE_SIMPLE:
        return newSimpleCache(cb)
    case TYPE_LRU:
        return newLRUCache(cb)
    case TYPE_LFU:
        return newLFUCache(cb)
    case TYPE_ARC:
        return newARC(cb)
    default:
        panic("gcache: Unknown type " + cb.tp)
    }
}

// 举例一个SimpleCache  
func newSimpleCache(cb *CacheBuilder) *SimpleCache {
    c := &SimpleCache{}
    buildCache(&c.baseCache, cb)

    c.init()
    c.loadGroup.cache = c
    return c
}

// init 初始化simple 中的map
func (c *SimpleCache) init() {
    if c.size <= 0 {
        c.items = make(map[interface{}]*simpleItem)
    } else {
        c.items = make(map[interface{}]*simpleItem, c.size)
    }
}

// 初始化回调函数
func buildCache(c *baseCache, cb *CacheBuilder) {
    c.clock = cb.clock
    c.size = cb.size
    c.loaderExpireFunc = cb.loaderExpireFunc
    c.expiration = cb.expiration
    c.addedFunc = cb.addedFunc
    c.deserializeFunc = cb.deserializeFunc
    c.serializeFunc = cb.serializeFunc
    c.evictedFunc = cb.evictedFunc
    c.purgeVisitorFunc = cb.purgeVisitorFunc
    c.stats = &stats{}
}

接口和总体流程

type Cache interface {
    Set(key, value interface{}) error
    SetWithExpire(key, value interface{}, expiration time.Duration) error
    Get(key interface{}) (interface{}, error)
    GetIFPresent(key interface{}) (interface{}, error)
    GetALL(checkExpired bool) map[interface{}]interface{}
    get(key interface{}, onLoad bool) (interface{}, error)
    Remove(key interface{}) bool
    Purge()
    Keys(checkExpired bool) []interface{}
    Len(checkExpired bool) int
    Has(key interface{}) bool

    statsAccessor
}

type statsAccessor interface {
    HitCount() uint64
    MissCount() uint64
    LookupCount() uint64
    HitRate() float64
}


type baseCache struct {
    clock            Clock
    size             int
    loaderExpireFunc LoaderExpireFunc
    evictedFunc      EvictedFunc
    purgeVisitorFunc PurgeVisitorFunc
    addedFunc        AddedFunc
    deserializeFunc  DeserializeFunc
    serializeFunc    SerializeFunc
    expiration       *time.Duration
    mu               sync.RWMutex
    loadGroup        Group
    *stats
}

SimpleCache

SimpleCache是gcache中最简单的一种,其中比较重要的函数就是Get,Set。
在SimpleCache结构体中items保存这simpleItem。simpleItem结构体中保存具体值和过期时间。
Get,Set函数就是通过操作items属性来保存和获取缓存中的值的。下面我们详细看一下代码:

结构体
type SimpleCache struct {
    baseCache
    items map[interface{}]*simpleItem
}

type simpleItem struct {
    clock      Clock
    value      interface{}
    expiration *time.Time
}
Set方法
func (c *SimpleCache) set(key, value interface{}) (interface{}, error) {
    var err error
    // 判断是否有序列化函数 有则执行回调函数
    if c.serializeFunc != nil {
        value, err = c.serializeFunc(key, value)
        if err != nil {
            return nil, err
        }
    }

    // 检查是否存在key
    item, ok := c.items[key]
    if ok {
        item.value = value
    } else {
        // 检查是否超过设置的大小范围
        if (len(c.items) >= c.size) && c.size > 0 {
            // 如果超过大小则驱逐一个
            c.evict(1)
        }
        // 组成simpleItem对象
        item = &simpleItem{
            clock: c.clock,
            value: value,
        }
        c.items[key] = item
    }
    
    // 判断是否有过期时间
    if c.expiration != nil {
        // 如果有则设置过期时间
        t := c.clock.Now().Add(*c.expiration)
        item.expiration = &t
    }
    // 判断是否有添加函数 有则添加
    if c.addedFunc != nil {
        c.addedFunc(key, value)
    }

    return item, nil
}

// SimpleCache 驱逐方法 
// 驱逐策略则是最简单的淘汰一个,因为map的特性 range访问的是随机的数据。所以驱逐出去的数据也是随机的一个。
func (c *SimpleCache) evict(count int) {
    now := c.clock.Now()
    current := 0
    for key, item := range c.items {
        if current >= count {
            return
        }
        if item.expiration == nil || now.After(*item.expiration) {
            defer c.remove(key)
            current++
        }
    }
}

Get方法

// get函数 从缓存中获取数据
func (c *SimpleCache) get(key interface{}, onLoad bool) (interface{}, error) {
    // 内部方法根据key获取值
    v, err := c.getValue(key, onLoad)
    if err != nil {
        return nil, err
    }
    if c.deserializeFunc != nil {
        return c.deserializeFunc(key, v)
    }
    return v, nil
}

// 内部获取方法
// 1. 加锁
// 2. 判断是否过期 如果过期直接删除数据
// 3. 如果没有过期则返回数据 增加hit基数器 
// 4. 如果没有命中 增加MissCount
func (c *SimpleCache) getValue(key interface{}, onLoad bool) (interface{}, error) {
    c.mu.Lock()
    item, ok := c.items[key]
    if ok {
        if !item.IsExpired(nil) {
            v := item.value
            c.mu.Unlock()
            if !onLoad {
                c.stats.IncrHitCount()
            }
            return v, nil
        }
        c.remove(key)
    }
    c.mu.Unlock()
    if !onLoad {
        c.stats.IncrMissCount()
    }
    return nil, KeyNotFoundError
}

LRUCache

LRU在之前已经介绍过了,意思是最近最少使用。LRU Cache 的替换原则就是将最近最少使用的内容替换掉。
gcache实现的方法是通过链表来实现这个策略。当每次get或者set之后则把这个节点放到链表的头部,当需要超过size时则删除链表尾部的节点数据。这样就实现了最近最少使用的策略。

结构体
type LRUCache struct {
    baseCache
    items     map[interface{}]*list.Element
    evictList *list.List
}

type lruItem struct {
    clock      Clock
    key        interface{}
    value      interface{}
    expiration *time.Time
}
Set方法
// 先加锁防止多线程修改数据,调用内部set方法设置数据。
func (c *LRUCache) Set(key, value interface{}) error {
    c.mu.Lock()
    defer c.mu.Unlock()
    _, err := c.set(key, value)
    return err
}

// 内部设置数据方法
func (c *LRUCache) set(key, value interface{}) (interface{}, error) {
    var err error
    // 判断执行序列化回调函数
    if c.serializeFunc != nil {
        value, err = c.serializeFunc(key, value)
        if err != nil {
            return nil, err
        }
    }

    // Check for existing item
    var item *lruItem
    // 从items map中获取值 
    if it, ok := c.items[key]; ok {
        // 如果key原本就存在,则重新设置然后移动节点到链表的头部
        c.evictList.MoveToFront(it)
        item = it.Value.(*lruItem)
        item.value = value
    } else {
        // 如果超过size则调用evict函数根据LRU策略去除缓存中的一个数据
        if c.evictList.Len() >= c.size {
            c.evict(1)
        }
        // 创建对象然后放入链表和items中
        item = &lruItem{
            clock: c.clock,
            key:   key,
            value: value,
        }
        c.items[key] = c.evictList.PushFront(item)
    }
    // 判断是否有过期时间 有则设置
    if c.expiration != nil {
        t := c.clock.Now().Add(*c.expiration)
        item.expiration = &t
    }
    // 判断调用 added回调函数
    if c.addedFunc != nil {
        c.addedFunc(key, value)
    }

    return item, nil
}

// 驱逐函数 
func (c *LRUCache) evict(count int) {
    // 循环删除链表尾部的节点
    for i := 0; i < count; i++ {
        ent := c.evictList.Back()
        if ent == nil {
            return
        } else {
            c.removeElement(ent)
        }
    }
}

LFU Cache

LFU:意思是最近最不常用。LFU Cache先淘汰一定时间内被访问次数最少的页面。

源码分析

LFU策略,淘汰的是访问次数最少的,意味着cache需要保存每个缓存数据的访问次数。但如何保存访问次数呢,我们可以看下面的结构体定义。

items map[interface{}]*lfuItem :保存数据,保证访问时候的高效
lfuItem:保存在map中,其中存放这key、value、过期时间、一个链表节点的地址。这个地址用来方便操作链表中的数据。
freqList:链表结构,保存freqEntry
freqEntry:包含两个字段一个是freq用来保存访问次数,另一个是items map类型用来保存次访问次数的具体数据,可以是多个

gcache的LFU使用一个map来保存数据 一个链表(包含次数和map)来保存缓存中数据被访问的次数。初次set时访问次数默认为0。如果淘汰则是淘汰被访问次数最少的,则可以从链表的头部开始扫描,一直找到最少的。

图解

初始化

图一 是set5个字符串到cache中,5个字符串不重复。items中的数据我们不看只画了链表中的数据状态。
这个时候链表中只有一个节点,这个节点数据中的freq为0,意味着这个节点中的数据都是没有被访问的。
图片描述

操作过后的图

图二 是经过几次get和一次set操作后的链表数据结果。可以看到链表的每一个节点都代表着一个访问次数并且依次递增。
每次get访问数据时候通过上面提到的lfuItem中的指针获取到节点在链表所在的位置,把数据往后移动一个节点。如果没有节点测创建一个以此类推。那么得到的结果就是越靠近头部的数据访问次数是最少的。如果淘汰则优先淘汰这些数据。
图片描述

结构体
type LFUCache struct {
    baseCache
    items    map[interface{}]*lfuItem
    freqList *list.List // list for freqEntry
}

type freqEntry struct {
    freq  uint
    items map[*lfuItem]struct{}
}

type lfuItem struct {
    clock       Clock
    key         interface{}
    value       interface{}
    freqElement *list.Element
    expiration  *time.Time
}
Set方法
func (c *LFUCache) Set(key, value interface{}) error {
    c.mu.Lock()
    defer c.mu.Unlock()
    _, err := c.set(key, value)
    return err
}

// set内部方法
func (c *LFUCache) set(key, value interface{}) (interface{}, error) {
    var err error
    if c.serializeFunc != nil {
        value, err = c.serializeFunc(key, value)
        if err != nil {
            return nil, err
        }
    }

    // 检查key是否存在
    item, ok := c.items[key]
    if ok {
        // 存在则直接赋值
        item.value = value
    } else {
        // 不存在并且数量超出则执行驱逐函数
        if len(c.items) >= c.size {
            c.evict(1)
        }
        // 新建item对象
        item = &lfuItem{
            clock:       c.clock,
            key:         key,
            value:       value,
            freqElement: nil,
        }
        // 把新建的lfuitem对象放到链表第一个节点中
        el := c.freqList.Front()
        fe := el.Value.(*freqEntry)
        fe.items[item] = struct{}{}

        item.freqElement = el
        c.items[key] = item
    }

    if c.expiration != nil {
        t := c.clock.Now().Add(*c.expiration)
        item.expiration = &t
    }

    if c.addedFunc != nil {
        c.addedFunc(key, value)
    }

    return item, nil
}

// 驱逐函数
func (c *LFUCache) evict(count int) {
    // 获取链表第一个节点
    entry := c.freqList.Front()
    // 循环count
    for i := 0; i < count; {
        if entry == nil {
            return
        } else {
            // 循环判断啊链表节点中是否有数据 如果没有则调用next 继续循环
            for item, _ := range entry.Value.(*freqEntry).items {
                if i >= count {
                    return
                }
                c.removeItem(item)
                i++
            }
            entry = entry.Next()
        }
    }
}
Get方法
func (c *LFUCache) get(key interface{}, onLoad bool) (interface{}, error) {
    v, err := c.getValue(key, onLoad)
    if err != nil {
        return nil, err
    }
    if c.deserializeFunc != nil {
        return c.deserializeFunc(key, v)
    }
    return v, nil
}

// 判断是否过期,如果没过期则获取并且执行increment函数操作链表
func (c *LFUCache) getValue(key interface{}, onLoad bool) (interface{}, error) {
    c.mu.Lock()
    item, ok := c.items[key]
    if ok {
        if !item.IsExpired(nil) {
            c.increment(item)
            v := item.value
            c.mu.Unlock()
            if !onLoad {
                c.stats.IncrHitCount()
            }
            return v, nil
        }
        c.removeItem(item)
    }
    c.mu.Unlock()
    if !onLoad {
        c.stats.IncrMissCount()
    }
    return nil, KeyNotFoundError
}

// 将lfuItem 放入下一个节点中的map中,如果没有则创建一个新的lfuItem
func (c *LFUCache) increment(item *lfuItem) {
    currentFreqElement := item.freqElement
    currentFreqEntry := currentFreqElement.Value.(*freqEntry)
    nextFreq := currentFreqEntry.freq + 1
    delete(currentFreqEntry.items, item)

    nextFreqElement := currentFreqElement.Next()
    if nextFreqElement == nil {
        nextFreqElement = c.freqList.InsertAfter(&freqEntry{
            freq:  nextFreq,
            items: make(map[*lfuItem]struct{}),
        }, currentFreqElement)
    }
    nextFreqElement.Value.(*freqEntry).items[item] = struct{}{}
    item.freqElement = nextFreqElement
}

ARC Cache

ARC:Adaptive Replacement Cache,ARC介于 LRU 和 LFU 之间。

源码分析

ARC是介于LRU和LFU之间的算法。也是通过map来存储数据,保证存取的性能。那是如何实现LRU和LFU又是如何平衡两个策略的呢?
结构体可以参看下面的代码:

  • items: map数据结构保存key,value则是arcItem结构体,其中包含了key、value、过期时间。注意其中没有像LFU的链表指针。
  • t1:LRU策略,set之后会放入t1中限制数量跟整个cache数量相同。
  • t2:LFU策略,当get访问之后会从t1移动到t2之中,不过无论访问几次都会在t2之中,不像LFU一样会记录访问次数。
  • b1:接收t1(LRU)策略淘汰的缓存数据。如果超过size则直接从cache中删除。
  • b2:接收t2(LFU)策略淘汰的缓存数据。跟b1一样超过size也会从cache中删除。

那每次Set、Get数据又是怎么流动的呢?下面图解:
图一:是初始化并且添加5条数据之后cache内部数据结构。items保存全部数据,因为没有访问数据则所有数据都会放到t1中。
图片描述
图二:获取了aaa、bbb、ddd、eee4个数据,然后有set了fff到cache中。假设这个cache的size为5。
其中aaa、bbb、ddd、eee被移动到了t2中,剩下的ccc没有访问则会继续保留再t1之中。但是最后一条语句又设置了fff到cache中。发现size已经满则需要淘汰一个数据,则会淘汰t1中的数据ccc移动到b1中。items之中则没有ccc数据了。
最终的数据流动如下图:
图片描述

结构体
type ARC struct {
    baseCache
    items map[interface{}]*arcItem

    part int
    t1   *arcList
    t2   *arcList
    b1   *arcList
    b2   *arcList
}

type arcItem struct {
    clock      Clock
    key        interface{}
    value      interface{}
    expiration *time.Time
}

type arcList struct {
    l    *list.List
    keys map[interface{}]*list.Element
}
Set方法
func (c *ARC) Set(key, value interface{}) error {
    c.mu.Lock()
    defer c.mu.Unlock()
    _, err := c.set(key, value)
    return err
}

// 1. 判断缓存中是否有数据
// 2. 在b1,b2中查看是否存在,如果存在则删除b1 b2 重新放入到t2中
// 3. 
func (c *ARC) set(key, value interface{}) (interface{}, error) {
    var err error
    if c.serializeFunc != nil {
        value, err = c.serializeFunc(key, value)
        if err != nil {
            return nil, err
        }
    }

    item, ok := c.items[key]
    if ok {
        item.value = value
    } else {
        item = &arcItem{
            clock: c.clock,
            key:   key,
            value: value,
        }
        c.items[key] = item
    }

    if c.expiration != nil {
        t := c.clock.Now().Add(*c.expiration)
        item.expiration = &t
    }

    defer func() {
        if c.addedFunc != nil {
            c.addedFunc(key, value)
        }
    }()

    if c.t1.Has(key) || c.t2.Has(key) {
        return item, nil
    }

    if elt := c.b1.Lookup(key); elt != nil {
        c.setPart(minInt(c.size, c.part+maxInt(c.b2.Len()/c.b1.Len(), 1)))
        c.replace(key)
        c.b1.Remove(key, elt)
        c.t2.PushFront(key)
        return item, nil
    }

    if elt := c.b2.Lookup(key); elt != nil {
        c.setPart(maxInt(0, c.part-maxInt(c.b1.Len()/c.b2.Len(), 1)))
        c.replace(key)
        c.b2.Remove(key, elt)
        c.t2.PushFront(key)
        return item, nil
    }

    if c.isCacheFull() && c.t1.Len()+c.b1.Len() == c.size {
        if c.t1.Len() < c.size {
            c.b1.RemoveTail()
            c.replace(key)
        } else {
            pop := c.t1.RemoveTail()
            item, ok := c.items[pop]
            if ok {
                delete(c.items, pop)
                if c.evictedFunc != nil {
                    c.evictedFunc(item.key, item.value)
                }
            }
        }
    } else {
        total := c.t1.Len() + c.b1.Len() + c.t2.Len() + c.b2.Len()
        if total >= c.size {
            if total == (2 * c.size) {
                if c.b2.Len() > 0 {
                    c.b2.RemoveTail()
                } else {
                    c.b1.RemoveTail()
                }
            }
            c.replace(key)
        }
    }
    c.t1.PushFront(key)
    return item, nil
}
Get方法

如果t1中存在则从t1移动到t2,如果存在再t2之中则放到t2的头部节点。

func (c *ARC) Get(key interface{}) (interface{}, error) {
    v, err := c.get(key, false)
    if err == KeyNotFoundError {
        return c.getWithLoader(key, true)
    }
    return v, err
}

func (c *ARC) get(key interface{}, onLoad bool) (interface{}, error) {
    v, err := c.getValue(key, onLoad)
    if err != nil {
        return nil, err
    }
    if c.deserializeFunc != nil {
        return c.deserializeFunc(key, v)
    }
    return v, nil
}

func (c *ARC) getValue(key interface{}, onLoad bool) (interface{}, error) {
    c.mu.Lock()
    defer c.mu.Unlock()
    if elt := c.t1.Lookup(key); elt != nil {
        c.t1.Remove(key, elt)
        item := c.items[key]
        if !item.IsExpired(nil) {
            c.t2.PushFront(key)
            if !onLoad {
                c.stats.IncrHitCount()
            }
            return item.value, nil
        } else {
            delete(c.items, key)
            c.b1.PushFront(key)
            if c.evictedFunc != nil {
                c.evictedFunc(item.key, item.value)
            }
        }
    }
    if elt := c.t2.Lookup(key); elt != nil {
        item := c.items[key]
        if !item.IsExpired(nil) {
            c.t2.MoveToFront(elt)
            if !onLoad {
                c.stats.IncrHitCount()
            }
            return item.value, nil
        } else {
            delete(c.items, key)
            c.t2.Remove(key, elt)
            c.b2.PushFront(key)
            if c.evictedFunc != nil {
                c.evictedFunc(item.key, item.value)
            }
        }
    }

    if !onLoad {
        c.stats.IncrMissCount()
    }
    return nil, KeyNotFoundError
}

总结

自此gcache所有的策略都已经分析完了。看完分析可以看出来gcache支持的策略很多,并且使用十分简单。只要在声明的时候确定好策略就可以使用对应的策略。更加支持各种回调函数,让逻辑更加灵活复合各种需求。
写这篇文章也在网上找了一些资料,但是都不是特别的详细所以不停的调试和画图分析出来的结果。希望能对大家能有所帮助。


有疑问加站长微信联系(非本文作者)

本文来自:Segmentfault

感谢作者:大二小的宝

查看原文:Go gcache 源码分析(图解)

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

3649 次点击  
加入收藏 微博
被以下专栏收入,发现更多相似内容
暂无回复
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传