Catena (时序存储引擎)中有一个函数的实现备受争议,它从 map 中根据指定的 name
获取一个 metricSource
。每一次插入操作都会至少调用一次这个函数,现实场景中该函数调用更是频繁,并且是跨多个协程的,因此我们必须要考虑同步。
该函数从 map[string]*metricSource
中根据指定的 name
获取一个指向 metricSource
的指针,如果获取不到则创建一个并返回。其中要注意的关键点是我们只会对这个 map 进行插入操作。
简单实现如下:(为节省篇幅,省略了函数头和返回,只贴重要部分)
var source *memorySource var present bool p.lock.Lock() // lock the mutex defer p.lock.Unlock() // unlock the mutex at the end if source, present = p.sources[name]; !present { // The source wasn't found, so we'll create it. source = &memorySource{ name: name, metrics: map[string]*memoryMetric{}, } // Insert the newly created *memorySource. p.sources[name] = source }
经测试,该实现大约可以达到 1,400,000 插入/秒(通过协程并发调用,GOMAXPROCS
设置为 4)。看上去很快,但实际上它是慢于单个协程的,因为多个协程间存在锁竞争。
我们简化一下情况来说明这个问题,假设两个协程分别要获取“a”、“b”,并且“a”、“b”都已经存在于该 map 中。上述实现在运行时,一个协程获取到锁、拿指针、解锁、继续执行,此时另一个协程会被卡在获取锁。等待锁释放是非常耗时的,并且协程越多性能越差。
让它变快的方法之一是移除锁控制,并保证只有一个协程访问这个 map。这个方法虽然简单,但没有伸缩性。下面我们看看另一种简单的方法,并保证了线程安全和伸缩性。
var source *memorySource var present bool if source, present = p.sources[name]; !present { // added this line // The source wasn't found, so we'll create it. p.lock.Lock() // lock the mutex defer p.lock.Unlock() // unlock at the end if source, present = p.sources[name]; !present { source = &memorySource{ name: name, metrics: map[string]*memoryMetric{}, } // Insert the newly created *memorySource. p.sources[name] = source } // if present is true, then another goroutine has already inserted // the element we want, and source is set to what we want. } // added this line // Note that if the source was present, we avoid the lock completely!
该实现可以达到 5,500,000 插入/秒,比第一个版本快 3.93 倍。有 4 个协程在跑测试,结果数值和预期是基本吻合的。
这个实现是 ok 的,因为我们没有删除、修改操作。在 CPU 缓存中的指针地址我们可以安全使用,不过要注意的是我们还是需要加锁。如果不加,某协程在创建插入 source
时另一个协程可能已经正在插入,它们会处于竞争状态。这个版本中我们只是在很少情况下加锁,所以性能提高了很多。
John Potocny 建议移除 defer
,因为会延误解锁时间(要在整个函数返回时才解锁),下面给出一个“终极”版本:
var source *memorySource var present bool if source, present = p.sources[name]; !present { // The source wasn't found, so we'll create it. p.lock.Lock() // lock the mutex if source, present = p.sources[name]; !present { source = &memorySource{ name: name, metrics: map[string]*memoryMetric{}, } // Insert the newly created *memorySource. p.sources[name] = source } p.lock.Unlock() // unlock the mutex } // Note that if the source was present, we avoid the lock completely!
9,800,000 插入/秒!改了 4 行提升到 7 倍啊!!有木有!!!!
更新:(译注:原作者循序渐进非常赞)
上面实现正确么?No!通过 Go Data Race Detector 我们可以很轻松发现竟态条件,我们不能保证 map 在同时读写时的完整性。
下面给出不存在竟态条件、线程安全,应该算是“正确”的版本了。使用了 RWMutex
,读操作不会被锁,写操作保持同步。
var source *memorySource var present bool p.lock.RLock() if source, present = p.sources[name]; !present { // The source wasn't found, so we'll create it. p.lock.RUnlock() p.lock.Lock() if source, present = p.sources[name]; !present { source = &memorySource{ name: name, metrics: map[string]*memoryMetric{}, } // Insert the newly created *memorySource. p.sources[name] = source } p.lock.Unlock() } else { p.lock.RUnlock() }
经测试,该版本性能为其之前版本的 93.8%,在保证正确性的前提先能到达这样已经很不错了。也许我们可以认为它们之间根本没有可比性,因为之前的版本是错的。
本文译自:Optimizing Concurrent Map Access in Go
该文章同步自 简约设计の艺术
有疑问加站长微信联系(非本文作者)