一、环境介绍
操作系统:centos 6.10
redis版本:4.0.10
节点分布:部署6个redis节点,3主3从,分别安装在6台物理机上。
节点1:192.168.100.200 节点2:192.168.100.201 节点3:192.168.100.202 节点4:192.168.100.203 节点5:192.168.100.204 节点6:192.168.100.205
架构细节:
(1)所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽.
(2)节点的fail是通过集群中超过半数的节点检测失效时才生效.
(3)客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可
(4)redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护node<->slot<->value
redis-cluster选举:容错
(1)领着选举过程是集群中所有master参与,如果半数以上master节点与master节点通信超过(cluster-node-timeout),认为当前master节点挂掉.
(2)什么时候整个集群不可用(cluster_state:fail),当集群不可用时,所有对集群的操作做都不可用,收到((error) CLUSTERDOWN The cluster is down)错误
a:如果集群任意master挂掉,且当前master没有slave.集群进入fail状态,也可以理解成进群的slot映射[0-16383]不完成时进入fail状态.
b:如果超过集群半数以上master挂掉,无论是否有slave集群进入fail状态.
redis cluster节点分配
现在我们是三个主节点分别是:A, B, C 三个节点,它们可以是一台机器上的三个端口,也可以是三台不同的服务器。那么,采用哈希槽 (hash slot)的方式来分配16384个slot 的话,它们三个节点分别承担的slot 区间是:
节点A覆盖0-5460;
节点B覆盖5461-10922;
节点C覆盖10923-16383.
获取数据:
如果存入一个值,按照redis cluster哈希槽的算法: CRC16('key')384 = 6782。 那么就会把这个key 的存储分配到 B 上了。同样,当我连接(A,B,C)任何一个节点想获取'key'这个key时,也会这样的算法,然后内部跳转到B节点上获取数据
新增一个主节点:
新增一个节点D,redis
cluster的这种做法是从各个节点的前面各拿取一部分slot到D上,大致就会变成这样:
节点A覆盖1365-5460
节点B覆盖6827-10922
节点C覆盖12288-16383
节点D覆盖0-1364,5461-6826,10923-12287
同样删除一个节点也是类似,移动完成后就可以删除这个节点了。
Redis Cluster主从模式
redis cluster 为了保证数据的高可用性,加入了主从模式,一个主节点对应一个或多个从节点,主节点提供数据存取,从节点则是从主节点拉取数据备份,当这个主节点挂掉后,就会有这个从节点选取一个来充当主节点,从而保证集群不会挂掉。
上面那个例子里, 集群有ABC三个主节点, 如果这3个节点都没有加入从节点,如果B挂掉了,我们就无法访问整个集群了。A和C的slot也无法访问。
所以我们在集群建立的时候,一定要为每个主节点都添加了从节点, 比如像这样, 集群包含主节点A、B、C, 以及从节点A1、B1、C1, 那么即使B挂掉系统也可以继续正确工作。
B1节点替代了B节点,所以Redis集群将会选择B1节点作为新的主节点,集群将会继续正确地提供服务。 当B重新开启后,它就会变成B1的从节点。
不过需要注意,如果节点B和B1同时挂了,Redis集群就无法继续正确地提供服务了。
二、redis cluster安装
安装依赖包和工具
yum -y install gcc ruby ruby-devel rubygems rpm-build
分别在节点1到节点6下载和解压
cd /usr/local/src wget http://download.redis.io/releases/redis-4.0.10.tar.gz tar -zxvf redis-4.0.10.tar.gz mv redis-4.0.10 /usr/local/redis mkdir -p /usr/local/redis-cluster cd /usr/local/redis make MALLOC=libc && make install PREFIX=/usr/local/redis-cluster
创建redis节点,每台服务器1个节点
先在节点1:192.168.100.200创建1个节点
修改redis.conf对应的配置
vi /usr/local/redis/redis.conf port 6379 #监听端口 bind 0.0.0.0 #如果所有节点不在同一内网,改为0.0.0.0,如果在同一内网,建议绑定内网IP daemonize yes #即默认以后台程序方式运行 protected-mode no #关闭保护模式 cluster-enabled yes #是否启用集群 cluster-config-file nodes-6379.conf #集群配置文件,这个文件是不存在的,不用创建,集群会自动生成更新 cluster-node-timeout 5000 //集群节点超时时间 appendonly yes //开启aof日志
剩下的五台机器同样配置
分别启动六台物理机上各节点
/usr/local/redis-cluster/bin/redis-server /usr/local/redis/redis.conf /usr/local/redis-cluster/bin/redis-server /usr/local/redis/redis.conf /usr/local/redis-cluster/bin/redis-server /usr/local/redis/redis.conf /usr/local/redis-cluster/bin/redis-server /usr/local/redis/redis.conf /usr/local/redis-cluster/bin/redis-server /usr/local/redis/redis.conf /usr/local/redis-cluster/bin/redis-server /usr/local/redis/redis.conf
查看服务
ps -ef | grep redis #查看是否启动成功 netstat -tunlp | grep redis #可以看到redis监听端口
三、创建集群
1.安装redis接口(用gem 这个命令安装redis接口,gem是ruby的一个工具包,
当然,为了日后方便维护,六台Server都要安装。)
gem install redis
2.创建集群
确认所有的节点都启动后,使用如下命令创建集群
/usr/local/redis/src/redis-trib.rb create --replicas 1 192.168.100.200:6379 192.168.100.201:6379 192.168.100.202:6379 192.168.100.203:6379 192.168.100.204:6379 192.168.100.205:6379
其中 --replicas 1 表示 自动为每一个master节点分配一个slave节点 上面有6个节点,程序会按照一定规则生成 3个master(主)3个slave(从)
3.查看集群中的节点:
192.168.100.200:6379> cluster nodes
4.停止redis cluster实例:
停止redis实例,直接使用kill命令即可,重启和单机版相同,重启会自动转换成cluster模式。
四、测试
1)查看集群中的节点
redis-cli -h 192.168.100.200 -c -p 6379 cluster nodes
2)存取测试
redis-cli -h 192.168.100.200 -c -p 6379 set sulao test
3)新增节点
1.添加一个新主(master)节点,按上述操作配置好单机版redis并启动,然后执行命令:
./redis-trib.rb add-node 192.168.100.206:6379 192.168.100.200:6379
其中192.168.100.206:6379是新增的节点,而192.168.100.200:6379是已存在的节点(可为master或slave)。
2.指定添加某master的新从(slave)节点,按上述操作配置好单机版redis并启动,然后执行命令:
./redis-trib.rb add-node --slave --master-id 3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 192.168.100.207:6379 192.168.100.206:6379
其中192.168.100.207:6379是新增的slave节点,而192.168.100.206:6379是已存在的master节点,3c3a0c74aae0b56170ccb03a76b60cfe7dc1912e 是192.168.100.206:6379的master-id。
4)容错测试
Down掉1台master,集群OK, Down掉2台master,cluster is down!! 没办法,超过半数master挂掉,整个集群就无法工作了。