万级K8s集群背后 etcd 稳定性及性能优化实践

灵雀云 · · 837 次点击 · · 开始浏览    
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。

1背景与挑战

随着腾讯自研上云及公有云用户的迅速增长,一方面,腾讯云容器服务TKE服务数量和核数大幅增长, 另一方面我们提供的容器服务类型(TKE托管及独立集群、EKS弹性集群、edge边缘计算集群、mesh服务网格、serverless knative)也越来越丰富。各类容器服务类型背后的核心都是K8s,K8s核心的存储etcd又统一由我们基于K8s构建的etcd平台进行管理。基于它我们目前管理了千级etcd集群,背后支撑了万级K8s集群。

在万级K8s集群规模下的我们如何高效保障etcd集群的稳定性?

etcd集群的稳定性风险又来自哪里?

我们通过基于业务场景、历史遗留问题、现网运营经验等进行稳定性风险模型分析,风险主要来自旧TKE etcd架构设计不合理、etcd稳定性、etcd性能部分场景无法满足业务、测试用例覆盖不足、变更管理不严谨、监控是否全面覆盖、隐患点是否能自动巡检发现、极端灾难故障数据安全是否能保障。

前面所描述的etcd平台已经从架构设计上、变更管理上、监控及巡检、数据迁移、备份几个方面程度解决了我们管理的各类容器服务的etcd可扩展性、可运维性、可观测性以及数据安全性,因此本文将重点描述我们在万级K8s场景下面临的etcd内核稳定性及性能挑战,比如:

•数据不一致

•内存泄露

•死锁

•进程Crash

•大包请求导致etcd OOM及丢包

•较大数据量场景下启动慢

•鉴权及查询key数量、查询指定数量记录接口性能较差

本文将简易描述我们是如何发现、分析、复现、解决以上问题及挑战,以及从以上过程中我们获得了哪些经验及教训,并将之应用到我们的各类容器服务存储稳定性保障中。

同时,我们将解决方案全部贡献、回馈给etcd开源社区, 截止目前我们贡献的30+ pr已全部合并到社区。腾讯云TKE etcd团队是etcd社区2020年上半年最活跃的贡献团队之一, 为etcd的发展贡献我们的一点力量, 在这过程中特别感谢社区AWS、Google、Ali等maintainer的支持与帮助。

2稳定性优化案例剖析

从GitLab误删主库丢失部分数据到GitHub数据不一致导致中断24小时,再到号称"不沉航母"的AWS S3故障数小时等,无一例外都是存储服务。稳定性对于一个存储服务、乃至一个公司的口碑而言至关重要,它决定着一个产品生与死。稳定性优化案例我们将从数据不一致的严重性、两个etcd数据不一致的bug、lease内存泄露、mvcc 死锁、wal crash方面阐述,我们是如何发现、分析、复现、解决以上case,并分享我们从每个case中的获得的收获和反思,从中汲取经验,防患于未然。

数据不一致(Data Inconsistency)

谈到数据不一致导致的大故障,就不得不详细提下GitHub在18年一次因网络设备的例行维护工作导致的美国东海岸网络中心与东海岸主要数据中心之间的连接断开。虽然网络的连通性在43秒内得以恢复,但是短暂的中断引发了一系列事件,最终导致GitHub 24小时11分钟的服务降级,部分功能不可用。

GitHub使用了大量的MySQL集群存储GitHub的meta data,如issue、pr、page等等,同时做了东西海岸跨城级别的容灾。故障核心原因是网络异常时GitHub的MySQL仲裁服务Orchestrator进行了故障转移,将写入数据定向到美国西海岸的MySQL集群(故障前primary在东海岸),然而美国东海岸的MySQL包含一小段写入,尚未复制到美国西海岸集群,同时故障转移后由于两个数据中心的集群现在都包含另一个数据中心中不存在的写入,因此又无法安全地将主数据库故障转移回美国东海岸。

最终, 为了保证保证用户数据不丢失,GitHub不得不以24小时的服务降级为代价来修复数据一致性。

数据不一致的故障严重性不言而喻,然而etcd是基于raft协议实现的分布式高可靠存储系统,我们也并未做跨城容灾,按理数据不一致这种看起来高大上bug我们是很难遇到的。然而梦想是美好的,现实是残酷的,我们不仅遇到了不可思议的数据不一致bug, 还一踩就是两个,一个是重启etcd有较低的概率触发,一个是升级etcd版本时如果开启了鉴权,在K8s场景下较大概率触发。在详细讨论这两个bug前,我们先看看在K8s场景下etcd数据不一致会导致哪些问题呢?

•数据不一致最恐怖之处在于client写入是成功的,但可能在部分节点读取到空或者是旧数据,client无法感知到写入在部分节点是失败的和可能读到旧数据

•读到空可能会导致业务Node消失、Pod消失、Node上Service路由规则消失,一般场景下,只会影响用户变更的服务

•读到老数据会导致业务变更不生效,如服务扩缩容、Service rs替换、变更镜像异常等待,一般场景下,只会影响用户变更的服务

•在etcd平台迁移场景下,client无法感知到写入失败,若校验数据一致性也无异常时(校验时连接到了正常节点),会导致迁移后整个集群全面故障(apiserver连接到了异常节点),用户的Node、部署的服务、lb等会被全部删除,严重影响用户业务

首先第一个不一致bug是重启etcd过程中遇到的,人工尝试复现多次皆失败,分析、定位、复现、解决这个bug之路几经波折,过程很有趣并充满挑战,最终通过我对关键点增加debug日志,编写chaos monkey模拟各种异常场景、边界条件,实现复现成功。最后的真凶竟然是一个授权接口在重启后重放导致鉴权版本号不一致,然后放大导致多版本数据库不一致, 部分节点无法写入新数据, 影响所有v3版本的3年之久bug。

随后我们提交若干个相关pr到社区, 并全部合并了, 最新的etcd v3.4.9[1],v3.3.22[2]已修复此问题, 同时google的jingyih也已经提K8s issue和pr[3]将K8s 1.19的etcd client及server版本升级到最新的v3.4.9。

第二个不一致bug是在升级etcd过程中遇到的,因etcd缺少关键的错误日志,故障现场有效信息不多,定位较困难,只能通过分析代码和复现解决。然而人工尝试复现多次皆失败,于是我们通过chaos monkey模拟client行为场景,将测试环境所有K8s集群的etcd分配请求调度到我们复现集群,以及对比3.2与3.3版本差异,在可疑点如lease和txn模块增加大量的关键日志,并对etcd apply request失败场景打印错误日志。

通过以上措施,我们比较快就复现成功了, 最终通过代码和日志发现是3.2版本与3.3版本在revoke lease权限上出现了差异,3.2无权限,3.3需要写权限。当lease过期的时候,如果leader是3.2,那么请求在3.3节点就会因无权限导致失败,进而导致key数量不一致,mvcc版本号不一致,导致txn事务部分场景执行失败等。最新的3.2分支也已合并我们提交的修复方案,同时我们增加了etcd核心过程失败的错误日志以提高数据不一致问题定位效率,完善了升级文档,详细说明了lease会在此场景下引起数据不一致性,避免大家再次采坑。

从这两个数据不一致bug中我们获得了以下收获和最佳实践:

•算法理论数据一致性,不代表整体服务实现能保证数据一致性,目前业界对于这种基于日志复制状态机实现的分布式存储系统,没有一个核心的机制能保证raft、wal、mvcc、snapshot等模块协作不出问题,raft只能保证日志状态机的一致性,不能保证应用层去执行这些日志对应的command都会成功

•etcd版本升级存在一定的风险,需要仔细review代码评估是否存在不兼容的特性,如若存在是否影响鉴权版本号及mvcc版本号,若影响则升级过程中可能会导致数据不一致性,同时一定要灰度变更现网集群

•对所有etcd集群增加了一致性巡检告警,如revision差异监控、key数量差异监控等

•定时对etcd集群数据进行备份,再小概率的故障,根据墨菲定律都可能会发生,即便etcd本身虽具备完备的自动化测试(单元测试、集成测试、e2e测试、故障注入测试等),但测试用例仍有不少场景无法覆盖,我们需要为最坏的场景做准备(如3个节点wal、snap、db文件同时损坏),降低极端情况下的损失, 做到可用备份数据快速恢复

•etcd v3.4.4后的集群灰度开启data corruption检测功能,当集群出现不一致时,拒绝集群写入、读取,及时止损,控制不一致的数据范围

•继续完善我们的chaos monkey和使用etcd本身的故障注入测试框架functional,以协助我们验证、压测新版本稳定性(长时间持续跑),复现隐藏极深的bug, 降低线上采坑的概率

内存泄露(OOM)

众所周知etcd是golang写的,而golang自带垃圾回收机制也会内存泄露吗?首先我们得搞清楚golang垃圾回收的原理,它是通过后台运行一个守护线程,监控各个对象的状态,识别并且丢弃不再使用的对象来释放和重用资源,若你迟迟未释放对象,golang垃圾回收不是万能的,不泄露才怪。比如以下场景会导致内存泄露:

•goroutine泄露

•deferring function calls(如for循环里面未使用匿名函数及时调用defer释放资源,而是整个for循环结束才调用)

•获取string/slice中的一段导致长string/slice未释放(会共享相同的底层内存块)

•应用内存数据结构管理不周导致内存泄露(如为及时清理过期、无效的数据)

接下来看看我们遇到的这个etcd内存泄露属于哪种情况呢?事情起源于3月末的一个周末起床后收到现网3.4集群大量内存超过安全阈值告警,立刻排查了下发现以下现象:

•QPS及流量监控显示都较低,因此排除高负载及慢查询因素

•一个集群3个节点只有两个follower节点出现异常,leader 4g,follower节点高达23G

•goroutine、fd等资源未出现泄漏

•go runtime memstats指标显示各个节点申请的内存是一致的,但是follower节点go_memstats_heap_release_bytes远低于leader节点,说明某数据结构可能长期未释放

•生产集群默认关闭了pprof,开启pprof,等待复现, 并在社区上搜索释放有类似案例, 结果发现有多个用户1月份就报了,没引起社区重视,使用场景和现象跟我们一样

•通过社区的heap堆栈快速定位到了是由于etcd通过一个heap堆来管理lease的状态,当lease过期时需要从堆中删除,但是follower节点却无此操作,因此导致follower内存泄露, 影响所有3.4版本。

•问题分析清楚后,我提交的修复方案是follower节点不需要维护lease heap,当leader发生选举时确保新的follower节点能重建lease heap,老的leader节点则清空lease heap.

此内存泄露bug属于内存数据结构管理不周导致的,问题修复后,etcd社区立即发布了新的版本(v3.4.6+)以及K8s都立即进行了etcd版本更新。

从这个内存泄露bug中我们获得了以下收获和最佳实践:

•持续关注社区issue和pr, 别人今天的问题很可能我们明天就会遇到

•etcd本身测试无法覆盖此类需要一定时间运行的才能触发的资源泄露bug,我们内部需要加强此类场景的测试与压测

•持续完善、丰富etcd平台的各类监控告警,机器留足足够的内存buffer以扛各种意外的因素。

存储层死锁(Mvcc Deadlock)

死锁是指两个或两个以上的goroutine的执行过程中,由于竞争资源相互等待(一般是锁)或由于彼此通信(chan引起)而造成的一种程序卡死现象,无法对外提供服务。deadlock问题因为往往是在并发状态下资源竞争导致的, 一般比较难定位和复现, 死锁的性质决定着我们必须保留好分析现场,否则分析、复现及其困难。

那么我们是如何发现解决这个deadlock bug呢?问题起源于内部团队在压测etcd集群时,发现一个节点突然故障了,而且一直无法恢复,无法正常获取key数等信息。收到反馈后,我通过分析卡住的etcd进程和查看监控,得到以下结论:

•不经过raft及mvcc模块的rpc请求如member list可以正常返回结果,而经过的rpc请求全部context timeout

•etcd health健康监测返回503,503的报错逻辑也是经过了raft及mvcc

•通过tcpdump和netstat排除raft网络模块异常,可疑目标缩小到mvcc

•分析日志发现卡住的时候因数据落后leader较多,接收了一个数据快照,然后执行更新快照的时候卡住了,没有输出快照加载完毕的日志,同时确认日志未丢失

•排查快照加载的代码,锁定几个可疑的锁和相关goroutine,准备获取卡住的goroutine堆栈

•通过kill或pprof获取goroutine堆栈,根据goroutine卡住的时间和相关可疑点的代码逻辑,成功找到两个相互竞争资源的goroutine,其中一个正是执行快照加载,重建db的主goroutine,它获取了一把mvcc锁等待所有异步任务结束,而另外一个goroutine则是执行历史key压缩任务,当它收到stop的信号后,立刻退出,调用一个compactBarrier逻辑,而这个逻辑又恰恰需要获取mvcc锁,因此出现死锁,堆栈如下。

这个bug也隐藏了很久,影响所有etcd3版本,在集群中写入量较大,某落后的较多的节点执行了快照重建,同时此时又恰恰在做历史版本压缩,那就会触发。我提交的修复PR目前也已经合并到3.3和3.4分支中,新的版本已经发布(v3.3.21+/v3.4.8+)。

从这个死锁bug中我们获得了以下收获和最佳实践:

•多并发场景的组合的etcd自动化测试用例覆盖不到,也较难构建,因此也容易出bug, 是否还有其他类似场景存在同样的问题?需要参与社区一起继续提高etcd测试覆盖率(etcd之前官方博客介绍一大半代码已经是测试代码),才能避免此类问题。

•监控虽然能及时发现异常节点宕机,但是死锁这种场景之前我们不会自动重启etcd,因此需要完善我们的健康探测机制(比如curl /health来判断服务是否正常),出现死锁时能够保留堆栈、自动重启恢复服务。

•对于读请求较高的场景,需评估3节点集群在一节点宕机后,剩余两节点提供的QPS容量是否能够支持业务,若不够则考虑5节点集群。

Wal crash(Panic)

panic是指出现严重运行时和业务逻辑错误,导致整个进程退出。panic对于我们而言并不陌生,我们在现网遇到过几次,最早遭遇的不稳定性因素就是集群运行过程中panic了。

虽说我们3节点的etcd集群是可以容忍一个节点故障,但是crash瞬间对用户依然有影响,甚至出现集群拨测连接失败。

我们遇到的第一个crash bug,是发现集群链接数较多的时候有一定的概率出现crash, 然后根据堆栈查看社区已有人报grpc crash(issue)[4], 原因是etcd依赖的组件grpc-go出现了grpc crash(pr)[5],而最近我们遇到的crash bug[6]是v3.4.8/v3.3.21新版本发布引起的,这个版本跟我们有很大关系,我们贡献了3个PR到这个版本,占了一大半以上, 那么这个crash bug是如何产生以及复现呢?会不会是我们自己的锅呢?

•首先crash报错是walpb: crc mismatch, 而我们并未提交代码修改wal相关逻辑,排除自己的锅。

•其次通过review新版本pr, 目标锁定到google一位大佬在修复一个wal在写入成功后,而snapshot写入失败导致的crash bug的时候引入的.

•但是具体是怎么引入的?pr中包含多个测试用例验证新加逻辑,本地创建空集群和使用存量集群(数据比较小)也无法复现.

•错误日志信息太少,导致无法确定是哪个函数报的错,因此首先还是加日志,对各个可疑点增加错误日志后,在我们测试集群随便找了个老节点替换版本,然后很容易就复现了,并确定是新加的验证快照文件合法性的锅,那么它为什么会出现crc mismatch呢? 首先我们来简单了解下wal文件。

•etcd任何经过raft的模块的请求在写入etcd mvcc db前都会通过wal文件持久化,若进程在apply command过程中出现被杀等异常,重启时可通过wal文件重放将数据补齐,避免数据丢失。wal文件包含各种请求命令如成员变化信息、涉及key的各个操作等,为了保证数据完整性、未损坏,wal每条记录都会计算其的crc32,写入wal文件。重启后解析wal文件过程中,会校验记录的完整性,如果数据出现损坏或crc32计算算法出现变化则会出现crc32 mismatch.

•硬盘及文件系统并未出现异常,排除了数据损坏,经过深入排查crc32算法的计算,发现是新增逻辑未处理crc32类型的数据记录,它会影响crc32算法的值,导致出现差异,而且只有在当etcd集群创建产生后的第一个wal文件被回收才会触发,因此对存量运行一段时间的集群,100%复现。

•解决方案就是通过增加crc32算法的处理逻辑以及增加单元测试覆盖wal文件被回收的场景,社区已合并并发布了新的3.4和3.3版本(v3.4.9/v3.3.22).

虽然这个bug是社区用户反馈的,但从这个crash bug中我们获得了以下收获和最佳实践:

•单元测试用例非常有价值,然而编写完备的单元测试用例并不容易,需要考虑各类场景。

•etcd社区对存量集群升级、各版本之间兼容性测试用例几乎是0,需要大家一起来为其舔砖加瓦,让测试用例覆盖更多场景。

•新版本上线内部流程标准化、自动化, 如测试环境压测、混沌测试、不同版本性能对比、优先在非核心场景使用(如event)、灰度上线等流程必不可少。

配额及限速(Quota&QoS)

etcd面对一些大数据量的查询(expensive read)和写入操作时(expensive write),如全key遍历(full keyspace fetch)、大量event查询, list all Pod, configmap写入等会消耗大量的cpu、内存、带宽资源,极其容易导致过载,乃至雪崩。

然而,etcd目前只有一个极其简单的限速保护,当etcd的commited index大于applied index的阈值大于5000时,会拒绝一切请求,返回Too Many Request,其缺陷很明显,无法精确的对expensive read/write进行限速,无法有效防止集群过载不可用。

为了解决以上挑战,避免集群过载目前我们通过以下方案来保障集群稳定性:

•基于K8s apiserver上层限速能力,如apiserver默认写100/s,读200/s

•基于K8s resource quota控制不合理的Pod/configmap/crd数

•基于K8s controller-manager的-terminated-Pod-gc-threshold参数控制无效Pod数量(此参数默认值高达12500,有很大优化空间)

•基于K8s的apiserver各类资源可独立的存储的特性, 将event/configmap以及其他核心数据分别使用不同的etcd集群,在提高存储性能的同时,减少核心主etcd故障因素

•基于event admission webhook对读写event的apiserver请求进行速率控制

•基于不同业务情况,灵活调整event-ttl时间,尽量减少event数

•基于etcd开发QoS特性,目前也已经向社区提交了初步设计方案,支持基于多种对象类型设置QoS规则(如按grpcMethod、grpcMethod+请求key前缀路径、traffic、cpu-intensive、latency)

•通过多维度的集群告警(etcd集群lb及节点本身出入流量告警、内存告警、精细化到每个K8s集群的资源容量异常增长告警、集群资源读写QPS异常增长告警)来提前防范、规避可能出现的集群稳定性问题

多维度的集群告警在我们的etcd稳定性保障中发挥了重要作用,多次帮助我们发现用户和我们自身集群组件问题。用户问题如内部某K8s平台之前出现bug, 写入大量的集群CRD资源和client读写CRD QPS明显偏高。我们自身组件问题如某旧日志组件,当集群规模增大后,因日志组件不合理的频繁调用list Pod,导致etcd集群流量高达3Gbps, 同时apiserver本身也出现5XX错误。

虽然通过以上措施,我们能极大的减少因expensive read导致的稳定性问题,然而从线上实践效果看,目前我们仍然比较依赖集群告警帮助我们定位一些异常client调用行为,无法自动化的对异常client的进行精准智能限速,。etcd层因无法区分是哪个client调用,如果在etcd侧限速会误杀正常client的请求, 因此依赖apiserver精细化的限速功能实现。社区目前已在1.18中引入了一个API Priority and Fairness[7],目前是alpha版本,期待此特性早日稳定。

3性能优化案例剖析

etcd读写性能决定着我们能支撑多大规模的集群、多少client并发调用,启动耗时决定着我们当重启一个节点或因落后leader太多,收到leader的快照重建时,它重新提供服务需要多久?性能优化案例剖析我们将从启动耗时减少一半、密码鉴权性能提升12倍、查询key数量性能提升3倍等来简单介绍下如何对etcd进行性能优化。

启动耗时及查询key数量、查询指定记录数性能优化

当db size达到4g时,key数量百万级别时,发现重启一个集群耗时竟然高达5分钟, key数量查询也是超时,调整超时时间后,发现高达21秒,内存暴涨6G。同时查询只返回有限的记录数的场景(如业务使用etcd grpc-proxy来减少watch数,etcd grpc proxy在默认创建watch的时候,会发起对watch路径的一次limit读查询),依然耗时很高且有巨大的内存开销。于是周末空闲的时候我对这几个问题进行了深入调查分析,启动耗时到底花在了哪里?是否有优化空间?查询key数量为何如何耗时,内存开销如此之大?

带着这些问题对源码进行了深入分析和定位,首先来看查询key数和查询只返回指定记录数的耗时和内存开销极大的问题,分析结论如下:

•查询key数量时etcd之前实现是遍历整个内存btree,把key对应的revision存放在slice数组里面

•问题就在于key数量较多时,slice扩容涉及到数据拷贝,以及slice也需要大量的内存开销

•因此优化方案是新增一个CountRevision来统计key的数量即可,不需要使用slice,此方案优化后性能从21s降低到了7s,同时无任何内存开销

•对于查询指定记录数据耗时和内存开销非常大的问题,通过分析发现是limit记录数并未下推到索引层,通过将查询limit参数下推到索引层,大数据场景下limit查询性能提升百倍,同时无额外的内存开销。

再看启动耗时问题过高的问题,通过对启动耗时各阶段增加日志,得到以下结论:

•启动的时候机器上的cpu资源etcd进程未能充分利用

•9%耗时在打开后端db时,如将整个db文件mmap到内存

•91%耗时在重建内存索引btree上。当etcd收到一个请求Get Key时,请求被层层传递到了mvcc层后,它首先需要从内存索引btree中查找key对应的版本号,随后从boltdb里面根据版本号查出对应的value, 然后返回给client. 重建内存索引btree数的时候,恰恰是相反的流程,遍历boltdb,从版本号0到最大版本号不断遍历,从value里面解析出对应的key、revision等信息,重建btree,因为这个是个串行操作,所以操作及其耗时

•尝试将串行构建btree优化成高并发构建,尽量把所有核计算力利用起来,编译新版本测试后发现效果甚微,于是编译新版本打印重建内存索引各阶段的详细耗时分析,结果发现瓶颈在内存btree的插入上,而这个插入拥有一个全局锁,因此几乎无优化空间

•继续分析91%耗时发现重建内存索引竟然被调用了两次,第一处是为了获取一个mvcc的关键的consistent index变量,它是用来保证etcd命令不会被重复执行的关键数据结构,而我们前面提到的一个数据不一致bug恰好也是跟consistent index有密切关系。

•consistent index实现不合理,封装在mvcc层,因此我前面提了一个pr将此特性重构,做为了一个独立的包,提供各类方法给etcdserver、mvcc、auth、lease等模块调用。

•特性重构后的consistent index在启动的时候就不再需要通过重建内存索引数等逻辑来获取了,优化成调用cindex包的方法快速获取到consistent index,就将整个耗时从5min从缩短到2分30秒左右。因此优化同时依赖的consistent index特性重构,改动较大暂未backport到3.4/3.3分支,在未来3.5版本中、数据量较大时可以享受到启动耗时的显著提升。

密码鉴权性能提升12倍

某内部业务服务一直跑的好好的,某天client略微增多后,突然现网etcd集群出现大量超时,各种折腾,切换云盘类型、切换部署环境、调整参数都不发挥作用,收到求助后,索要metrics和日志后,经过一番排查后,得到以下结论:

•现象的确很诡异,db延时相关指标显示没任何异常,日志无任何有效信息

•业务反馈大量读请求超时,甚至可以通过etcdctl客户端工具简单复现,可是metric对应的读请求相关指标数竟然是0

•引导用户开启trace日志和metrics开启extensive模式,开启后发现无任何trace日志,然而开启extensive后,我发现耗时竟然全部花在了Authenticate接口,业务反馈是通过密码鉴权,而不是基于证书的鉴权

•尝试让业务同学短暂关闭鉴权测试业务是否恢复,业务同学找了一个节点关闭鉴权后,此节点立刻恢复了正常,于是选择临时通过关闭鉴权来恢复现网业务

•那鉴权为什么耗时这么慢?我们对可疑之处增加了日志,打印了鉴权各个步骤的耗时,结果发现是在等待锁的过程中出现了超时,而这个锁为什么耗时这么久呢?排查发现是因为加锁过程中会调用bcrpt加密函数计算密码hash值,每次耗费60ms左右,数百并发下等待此锁的最高耗时高达5s+。

•于是我们编写新版本将锁的范围减少,降低持锁阻塞时间,用户使用新版本后,开启鉴权后,业务不再超时,恢复正常。

•随后我们将修复方案提交给了社区,并编写了压测工具,测试提升后的性能高达近12倍(8核32G机器,从18/s提升到202/s),但是依然是比较慢,主要是鉴权过程中涉及密码校验计算, 社区上也有用户反馈密码鉴权慢问题, 目前最新的v3.4.9版本已经包含此优化, 同时可以通过调整bcrpt-cost参数来进一步提升性能。

4总结

本文简单描述了我们在管理万级K8s集群和其他业务过程中遇到的etcd稳定性和性能挑战,以及我们是如何定位、分析、复现、解决这些挑战,并将解决方案贡献给社区。

同时,详细描述了我们从这些挑战中收获了哪些宝贵的经验和教训,并将之应用到后续的etcd稳定性保障中,以支持更大规模的单集群和总集群数。

最后我们面对万级K8s集群数, 千级的etcd集群数, 10几个版本分布,其中不少低版本包含重要的潜在可能触发的严重bug, 我们还需要投入大量工作不断优化我们的etcd平台,使其更智能、变更更加高效、安全、可控(如支持自动化、可控的集群升级等), 同时数据安全也至关重要,目前腾讯云TKE托管集群我们已经全面备份,独立集群的用户后续将引导通过应用市场的etcd备份插件开启定时备份到腾讯云对象存储COS上。

未来我们将继续紧密融入etcd的社区,为etcd社区的发展贡献我们的力量,与社区一块提升etcd的各个功能。


有疑问加站长微信联系(非本文作者)

本文来自:简书

感谢作者:灵雀云

查看原文:万级K8s集群背后 etcd 稳定性及性能优化实践

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

837 次点击  ∙  1 赞  
加入收藏 微博
暂无回复
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传