用Codis实现Redis分布式集群

E狼 · · 1419 次点击 · · 开始浏览    
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。

一、Redis集群概述

Redis官方近期推出的Redis Cluster,Redis集群有三种实现机制,分别介绍如下,(1)客户端分片,(2)代理分片,(3)Redis Cluster

1.1 客户端分片

这种方案将分片工作放在业务程序端,程序代码根据预先设置的路由规则,直接对多个Redis实例进行分布式访问。这样的好处是,不依赖于第三方分布式中间件,实现方法和代码都自己掌控,可随时调整,不用担心踩到坑。

这实际上是一种静态分片技术。Redis实例的增减,都得手工调整分片程序。基于此分片机制的开源产品,现在仍不多见。

这种分片机制的性能比代理式更好(少了一个中间分发环节)。但缺点是升级麻烦,对研发人员的个人依赖性强——需要有较强的程序开发能力做后盾。如果主力程序员离职,可能新的负责人,会选择重写一遍。

所以,这种方式下,可运维性较差。出现故障,定位和解决都得研发和运维配合着解决,故障时间变长。

1.2 代理分片

这种方案,将分片工作交给专门的代理程序来做。代理程序接收到来自业务程序的数据请求,根据路由规则,将这些请求分发给正确的Redis实例并返回给业务程序。

这种机制下,一般会选用第三方代理程序(而不是自己研发),因为后端有多个Redis实例,所以这类程序又称为分布式中间件。

这样的好处是,业务程序不用关心后端Redis实例,运维起来也方便。虽然会因此带来些性能损耗,但对于Redis这种内存读写型应用,相对而言是能容忍的。

这是我们推荐的集群实现方案。像基于该机制的开源产品Twemproxy,便是其中代表之一,应用非常广泛。

1.3 Redis Cluster

在这种机制下,没有中心节点(和代理模式的重要不同之处)。所以,一切开心和不开心的事情,都将基于此而展开。

Redis

Cluster将所有Key映射到16384个Slot中,集群中每个Redis实例负责一部分,业务程序通过集成的Redis

Cluster客户端进行操作。客户端可以向任一实例发出请求,如果所需数据不在该实例中,则该实例引导客户端自动去对应实例读写数据。

Redis Cluster的成员管理(节点名称、IP、端口、状态、角色)等,都通过节点之间两两通讯,定期交换并更新。

由此可见,这是一种非常“重”的方案。已经不是Redis单实例的“简单、可依赖”了。可能这也是延期多年之后,才近期发布的原因之一。

这令人想起一段历史。因为Memcache不支持持久化,所以有人写了一个Membase,后来改名叫Couchbase,说是支持Auto Rebalance,好几年了,至今都没多少家公司在使用。

这是个令人忧心忡忡的方案。为解决仲裁等集群管理的问题,Oracle RAC还会使用存储设备的一块空间。而Redis Cluster,是一种完全的去中心化……

二、 Twemproxy代理

Twemproxy是一种代理分片机制,由Twitter开源。Twemproxy作为代理,可接受来自多个程序的访问,按照路由规则,转发给后台的各个Redis服务器,再原路返回。

这个方案顺理成章地解决了单个Redis实例承载能力的问题。当然,Twemproxy本身也是单点,需要用Keepalived做高可用方案。

我想很多人都应该感谢Twemproxy,这么些年来,应用范围最广、稳定性最高、最久经考验的分布式中间件,应该就是它了。只是,他还有诸多不方便之处。

Twemproxy最大的痛点在于,无法平滑地扩容/缩容。

这样导致运维同学非常痛苦:业务量突增,需增加Redis服务器;业务量萎缩,需要减少Redis服务器。但对Twemproxy而言,基本上都很难操作(那是一种锥心的、纠结的痛……)。

或者说,Twemproxy更加像服务器端静态sharding。有时为了规避业务量突增导致的扩容需求,甚至被迫新开一个基于Twemproxy的Redis集群。

Twemproxy另一个痛点是,运维不友好,甚至没有控制面板。

三、Codis

Codis由豌豆荚于2014年11月开源,基于Go和C开发,是近期涌现的、国人开发的优秀开源软件之一。

https://github.com/CodisLabs/codis

一、概要

Codis 是一个分布式Redis解决方案, 对于上层的应用来说, 连接到 Codis Proxy 和连接原生的 Redis Server 没有明显的区别 (有一些命令不支持), 上层应用可以像使用单机的 Redis 一样使用, Codis 底层会处理请求的转发, 不停机的数据迁移等工作, 所有后边的一切事情, 对于前面的客户端来说是透明的, 可以简单的认为后边连接的是一个内存无限大的 Redis 服务,当然,前段时间redis官方的3.0出了稳定版,3.0支持集群功能,codis的实现原理和3.0的集群功能差不多。

二、架构

三、角色分批

zookeeper集群:

10.10.0.47

10.10.0.48

10.10.1.76

codis-config、codis-ha:

10.10.32.10:18087

codis-proxy:

10.10.32.10:19000

10.10.32.49:19000

codis-server:

10.10.32.42:6379、10.10.32.43:6380(主、从)

10.10.32.43:6379、10.10.32.44:6380(主、从)

10.10.32.44:6379、10.10.32.42:6380(主、从)

四、部署

1、安装zookeeper

1yum -y installzookeeper jdk  ##安装服务

vim /etc/hosts##添加host

10.10.0.47 ZooKeeper-node1

10.10.0.48 ZooKeeper-node2

10.10.1.76 ZooKeeper-node3

vim /etc/zookeeper/conf/zoo.cfg ##撰写zk的配置文件

maxClientCnxns=50

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/data/zookeeper/

clientPort=2181

server.1=ZooKeeper-node1:2888:3888

server.2=ZooKeeper-node2:2888:3888

server.3=ZooKeeper-node3:2888:3888

mkdir/data/zookeeper/##创建zk的datadir目录

echo"2">/data/zookeeper/myid##生成ID,这里需要注意, myid对应的zoo.cfg的server.ID,比如ZooKeeper-node2对应的myid应该是2

/usr/lib/zookeeper/bin/zkServer.sh start  ## 服务启动

2、go安装(codis是go语言写的,所以那些机器需要安装你懂得)

wget https://storage.googleapis.com/golang/go1.4.1.linux-amd64.tar.gz

tar-zxvf go1.4.1.linux-amd64.tar.gz

mvgo /usr/local/

cd/usr/local/go/src/

bashall.bash

cat>> ~/.bashrc << _bashrc_export

exportGOROOT=/usr/local/go

exportPATH=\$PATH:\$GOROOT/bin

exportGOARCH=amd64

exportGOOS=linux

_bashrc_export

source~/.bashrc

3、下载并编译codis(codis-config、codis-proxy、codis-server所在的机器)

mkdir/data/go

exportGOPATH=/data/go

/usr/local/go/bin/goget github.com/wandoulabs/codis

cd/data/go/src/github.com/wandoulabs/codis/

./bootstrap.sh

makegotest

五、服务启动及初始化集群

1、启动 dashboard(codis-config上操作)

cat/etc/codis/config_10.ini ##撰写配置文件

zk=10.10.0.47:2181,10.10.0.48:2181,10.10.1.76:2181

product=zh_news

proxy_id=codis-proxy_10

net_timeout=5000

proto=tcp4

dashboard_addr=10.10.32.10:18087

1cd/data/go/src/github.com/wandoulabs/codis/&&  ./bin/codis-config-c /etc/codis/config_10.ini  dashboard &

2、初始化 slots (codis-config上操作)

1cd/data/go/src/github.com/wandoulabs/codis/&&  ./bin/codis-config-c /etc/codis/config_10.ini slot init

3、启动 Codis Redis , 和官方的Redis Server参数一样(codis-server上操作)

1cd/data/go/src/github.com/wandoulabs/codis/&& ./bin/codis-server/etc/redis_6379.conf &

4、添加 Redis Server Group , 每一个 Server Group 作为一个 Redis 服务器组存在, 只允许有一个 master, 可以有多个 slave, group id 仅支持大于等于1的整数(codis-config上操作)

cd/data/go/src/github.com/wandoulabs/codis/

./bin/codis-config-c /etc/codis/config_10.ini server add 1 10.10.32.42:6379 master

./bin/codis-config-c /etc/codis/config_10.ini server add 1 10.10.32.43:6380 slave

./bin/codis-config-c /etc/codis/config_10.ini server add 2 10.10.32.43:6379 master

./bin/codis-config-c /etc/codis/config_10.ini server add 2 10.10.32.44:6380 slave

./bin/codis-config-c /etc/codis/config_10.ini server add 3 10.10.32.44:6379 master

./bin/codis-config-c /etc/codis/config_10.ini server add 3 10.10.32.42:6380 slave

5、设置

server group 服务的 slot 范围 Codis 采用 Pre-sharding 的技术来实现数据的分片, 默认分成 1024 个

slots (0-1023), 对于每个key来说, 通过以下公式确定所属的 Slot Id : SlotId = crc32(key) %

1024 每一个 slot 都会有一个特定的 server group id 来表示这个 slot 的数据由哪个 server group

来提供.(codis-config上操作)

cd/data/go/src/github.com/wandoulabs/codis/

./bin/codis-config-c /etc/codis/config_10.ini slot range-set0 300 1 online

./bin/codis-config-c /etc/codis/config_10.ini slot range-set301 700 2 online

./bin/codis-config-c /etc/codis/config_10.ini slot range-set701 1023 3 online

6、启动 codis-proxy  (codis-proxy上操作

cat/etc/codis/config_10.ini ##撰写配置文件

zk=10.10.0.47:2181,10.10.0.48:2181,10.10.1.76:2181

product=zh_news

proxy_id=codis-proxy_10  ##10.10.32.49上改成codis-proxy_49,多个proxy,proxy_id 需要唯一

net_timeout=5000

proto=tcp4

dashboard_addr=10.10.32.10:18087

cd/data/go/src/github.com/wandoulabs/codis/&&  ./bin/codis-proxy-c /etc/codis/config_10.ini -L /data/log/codis-proxy_10.log  --cpu=4 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 &

cd/data/go/src/github.com/wandoulabs/codis/&&  ./bin/codis-proxy-c /etc/codis/config_49.ini -L /data/log/codis-proxy_49.log  --cpu=4 --addr=0.0.0.0:19000 --http-addr=0.0.0.0:11000 &

OK,整个集群已经搭建成功了,截图给你们show show

六、codis-server的HA

codis-ha实现codis-server的主从切换,codis-server主库挂了会提升一个从库为主库,从库挂了会设置这个从库从集群下线

1、安装

exportGOPATH=/data/go

/usr/local/go/bin/goget github.com/ngaut/codis-ha

cd/data/go/src/github.com/ngaut/codis-ha

go build

cpcodis-ha /data/go/src/github.com/wandoulabs/codis/bin/

使用方法:

codis-ha --codis-config=dashboard地址:18087 --productName=集群项目名称

2、使用supervisord管理codis-ha进程

1yum -y installsupervisord

/etc/supervisord.conf中添加如下内容:

[program:codis-ha]

autorestart = True

stopwaitsecs = 10

startsecs = 1

stopsignal = QUIT

command= /data/go/src/github.com/wandoulabs/codis/bin/codis-ha--codis-config=10.10.32.17:18087 --productName=zh_news

user = root

startretries = 3

autostart = True

exitcodes = 0,2

3、启动supervisord服务

/etc/init.d/supervisordstart

chkconfig supervisord  on

此时,ps -ef |grep codis-ha 你回发现codis-ha进程已经启动,这个时候你去停掉一个codis-server的master,看看slave会不会提升为master呢

七、关于监控

关于整个codis集群的监控,我们这边用的是zabbix,监控的指标比较简单,所以这块大家有什么好的建议多给我提提哈

zookeeper:监控各个节点的端口联通性(以后想着把进程也监控上)

codis-proxy:监控了端口的联通性,这个监控远远不够呀

codis-server:监控了内存使用率、连接数、联通性

codis-ha:监控进程

dashboard:监控端口联通性

八、使用过程中遇到的问题

1、codis-proxy的日志切割,codis-proxy的默认日志级别是info,日志量很大,我们这边每天产生50多G日志,目前codis-proxy还不支持热重启,想修改启动参数还是比较麻烦的,日志切割推荐用logrotate

2、codis-proxy的监听地址默认没有具体ipv4,也就是codis-proxy启动之后没有0.0.0.0:19000这样的监听,这样会导致的问题就是前端lvs没有办法负载均衡codis-proxy,不能转发请求过,这个问题已联系作者处理了,在codis-proxy启动的配置文件中加上proto=tcp4这个参数就支持监听ipv4了

3、添加

Redis Server

Group的时候,非codis-server(原生的redis)竟然也能加入到codis集群里面,在redis和codis-server共存在一个物理机上的清楚,很容易加错,希望能有个验证,非codis-server不能加入到codis集群

4、codis集群内部通讯是通过主机名的,如果主机名没有做域名解析那dashboard是通过主机名访问不到proxy的http-addr地址的,这会导致从web界面上看不到 OP/s的数据,至于还有没有其他问题,目前我这边还没有发现,建议内部通讯直接用内网IP


有疑问加站长微信联系(非本文作者)

本文来自:简书

感谢作者:E狼

查看原文:用Codis实现Redis分布式集群

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

1419 次点击  
加入收藏 微博
暂无回复
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传