twemproxy可以部署多个实例吗

发布网友 发布时间:2022-04-22 07:59

我来回答

3个回答

懂视网 时间:2022-04-30 02:37

//github.com/antirez/redis/archive/2.8.19.tar.gz tar -xvf 2.8.19.tar.gz cd redis-2.8.19/ make 

2、启动Redis服务器

nohup ./redis-server redis.conf & 

3、查看是否启动成功

ps ax | grep redis 

4、进入客户端

./src/redis-cli -p 6379 

5、执行如下命令  

127.0.0.1:6379> set i 1
OK
127.0.0.1:6379> get i
"1" 

通过如上命令可以看到我们的Redis安装成功。更多细节请参考http://redis.io/。

SSDB安装与使用

1、下载SSDB并安装

#首先确保安装了g++,如果没有安装,如ubuntu可以使用如下命令安装
apt-get install g++
wget https://github.com/ideawu/ssdb/archive/1.8.0.tar.gz
tar -xvf 1.8.0.tar.gz
make

2、后台启动SSDB服务器

nohup ./ssdb-server ./ssdb.conf &

3、查看是否启动成功   

ps -aux | grep ssdb 

4、进入客户端

./src/redis-cli -p 6379 
./src/redis-cli -p 8888

因为SSDB支持Redis协议,所以用Redis客户端也可以访问 

5、执行如下命令

127.0.0.1:8888> set i 1
OK
127.0.0.1:8888> get i
"1"

安装过程中遇到错误请参考http://ssdb.io/docs/zh_cn/install.html;对于SSDB的配置请参考官方文档https://github.com/ideawu/ssdb。

Twemproxy安装与使用

首先需要安装autoconf、automake、libtool工具,比如mac可以使用如下命令安装

sudo homebrew autoconf 
sudo homebrew automake
sudo homebrew libtool

ubuntu下面:

apt-get install autoconf automake
apt-get install libtool

1、下载Twemproxy并安装

wget https://github.com//twemproxy/archive/v0.4.0.tar.gz
tar -xvf v0.4.0.tar.gz 
cd twemproxy-0.4.0/
autoreconf -fvi
./configure && make

注意,如上安装方式在有些服务器上可能在大量如mset时可能导致Twemproxy崩溃,需要使用如 CFLAGS="-O1" ./configure && make或CFLAGS="-O3 -fno-strict-aliasing" ./configure && make安装。

2、配置 

vim ./conf/nutcracker.yml
alpha:
 listen: 127.0.0.1:22121
 hash: fnv1a_
 distribution: ketama
 auto_eject_hosts: true
 redis: true
 server_retry_timeout: 2000
 server_failure_limit: 1
 servers:
 - 127.0.0.1:6379:1

3、启动Twemproxy代理

./src/nutcracker -d -c ./conf/nutcracker.yml

-d指定后台启动  -c指定配置文件;此处我们指定了代理端口22121。

4、查看是否启动成功   

ps ax | grep nutcracker

5、进入客户端

./src/redis-cli -p 22121 

6、执行如下命令 

127.0.0.1:1111> set i 1
OK
127.0.0.1:1111> get i
"1"

Twemproxy文档请参考https://github.com//twemproxy。

 

到此基本的安装就完成了。接下来做一些介绍。

Redis设置

#端口设置,默认6379
port 6379
#日志文件,默认/dev/null
logfile "" 

Redis内存 

内存大小对应关系
# 1k => 1000 bytes
# 1kb => 1024 bytes
# 1m => 1000000 bytes
# 1mb => 1024*1024 bytes
# 1g => 1000000000 bytes
# 1gb => 1024*1024*1024 bytes

#设置Redis占用100mb的大小
maxmemory 100mb

#如果内存满了就需要按照如相应算法进行删除过期的/最老的
#volatile-lru 根据LRU算法移除设置了过期的key
#allkeys-lru 根据LRU算法移除任何key(包含那些未设置过期时间的key)
#volatile-random/allkeys->random 使用随机算法而不是LRU进行删除
#volatile-ttl 根据Time-To-Live移除即将过期的key 
#noeviction 永不过期,而是报错
maxmemory-policy volatile-lru

#Redis并不是真正的LRU/TTL,而是基于采样进行移除的,即如采样10个数据移除其中最老的/即将过期的
maxmemory-samples 10 

而如Memcached是真正的LRU,此处要根据实际情况设置缓存策略,如缓存用户数据时可能带上了过期时间,此时采用volatile-lru即可;而假设我们的数据未设置过期时间,此时可以考虑使用allkeys-lru/allkeys->random;假设我们的数据不允许从内存删除那就使用noeviction。

 

内存大小尽量在系统内存的60%~80%之间,因为如客户端、主从时复制时都需要缓存区的,这些也是耗费系统内存的。

 

Redis本身是单线程的,因此我们可以设置每个实例在6-8GB之间,通过启动更多的实例提高吞吐量。如128GB的我们可以开启8GB * 10个实例,充分利用多核CPU。

 

Redis主从

实际项目时,为了提高吞吐量,我们使用主从策略,即数据写到主Redis,读的时候从从Redis上读,这样可以通过挂载更多的从来提高吞吐量。而且可以通过主从机制,在叶子节点开启持久化方式防止数据丢失。

#在配置文件中挂载主从,不推荐这种方式,我们实际应用时Redis可能是会宕机的
slaveof masterIP masterPort
#从是否只读,默认yes
slave-read-only yes
#当从失去与主的连接或者复制正在进行时,从是响应客户端(可能返回过期的数据)还是返回“SYNC with master in progress”错误,默认yes响应客户端
slave-serve-stale-data yes
#从库按照默认10s的周期向主库发送PING测试连通性
repl-ping-slave-period 10
#设置复制超时时间(SYNC期间批量I/O传输、PING的超时时间),确保此值大于repl-ping-slave-period
#repl-timeout 60
#当从断开与主的连接时的复制缓存区,仅当第一个从断开时创建一个,缓存区越大从断开的时间可以持续越长
# repl-backlog-size 1mb
#当从与主断开持续多久时清空复制缓存区,此时从就需要全量复制了,如果设置为0将永不清空 
# repl-backlog-ttl 3600
#slave客户端缓存区,如果缓存区超过256mb将直接断开与从的连接,如果持续60秒超过mb也会断开与从的连接
client-output-buffer-limit slave 256mb mb 60 

此处需要根据实际情况设置client-output-buffer-limit slave和 repl-backlog-size;比如如果网络环境不好,从与主经常断开,而每次设置的数据都特别大而且速度特别快(大量设置html片段)那么就需要加大repl-backlog-size。 

 主从示例

cp redis.conf redis_6660.conf
cp redis.conf redis_6661.conf
vim redis_6660.conf
vim redis_6661.conf 

将端口分别改为port 6660和port 6661,然后启动

nohup ./src/redis-server ./redis_6660.conf &
nohup ./src/redis-server ./redis_6661.conf & 

查看是否启动

ps ax | grep redis

进入从客户端,挂主

./src/redis-cli -p 6661 
127.0.0.1:6661> slaveof 127.0.0.1 6660
OK
127.0.0.1:6661> info replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6660
master_link_status:up
master_last_io_seconds_ago:3
master_sync_in_progress:0
slave_repl_offset:57
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

 进入主

./src/redis-cli -p 6660
127.0.0.1:6660> info replication
# Replication
role:master
connected_slaves:1
slave0:ip=127.0.0.1,port=6661,state=online,offset=85,lag=1
master_repl_offset:85
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:84
127.0.0.1:6660> set i 1
OK

进入从   

./src/redis-cli -p 6661
127.0.0.1:6661> get i
"1"

此时可以看到主从挂载成功,可以进行主从复制了。使用slaveof no one断开主从。

Redis持久化

Redis虽然不适合做持久化存储,但是为了防止数据丢失有时需要进行持久化存储,此时可以挂载一个从(叶子节点)只进行持久化存储工作,这样假设其他服务器挂了,我们可以通过这个节点进行数据恢复。

Redis持久化有RDB快照模式和AOF追加模式,根据自己需求进行选择。

 

RDB持久化

#格式save seconds changes 即N秒变更N次则保存,从如下默认配置可以看到丢失数据的周期很长,通过save “” 配置可以完全禁用此持久化
save 900 1 
save 300 10 
save 60 10000 
#RDB是否进行压缩,压缩耗CPU但是可以减少存储大小
rdbcompression yes
#RDB保存的位置,默认当前位置 
dir ./
#RDB保存的数据库名称
dbfilename dump.rdb 
#不使用AOF模式,即RDB模式
appendonly no 

可以通过set一个数据,然后很快的kill掉redis进程然后再启动会发现数据丢失了。

 

AOF持久化   

AOF(append only file)即文件追加模式,即把每一个用户操作的命令保存下来,这样就会存在好多重复的命令导致恢复时间过长,那么可以通过相应的配置定期进行AOF重写来减少重复。

#开启AOF
appendonly yes
#AOF保存的位置,默认当前位置 
dir ./
#AOF保存的数据库名称
appendfilename appendonly.aof
#持久化策略,默认每秒fsync一次,也可以选择always即每次操作都进行持久化,或者no表示不进行持久化而是借助操作系统的同步将缓存区数据写到磁盘
appendfsync everysec

#AOF重写策略(同时满足如下两个策略进行重写)
#当AOF文件大小占到初始文件大小的多少百分比时进行重写
auto-aof-rewrite-percentage 100
#触发重写的最小文件大小
auto-aof-rewrite-min-size mb

#为减少磁盘操作,暂缓重写阶段的磁盘同步
no-appendfsync-on-rewrite no 

此处的appendfsync everysec可以认为是RDB和AOF的一个折中方案。

 

#当bgsave出错时停止写(MISCONF Redis is configured to save RDB snapshots, but is currently not able to persist on disk.),遇到该错误可以暂时改为no,当写成功后再改回yes

stop-writes-on-bgsave-error yes

 

更多Redis持久化请参考http://redis.readthedocs.org/en/latest/topic/persistence.html。

Redis动态调整配置

获取maxmemory(10mb) 

127.0.0.1:6660> config get maxmemory
1) "maxmemory"
2) "10485760"

设置新的maxmemory(20mb)

127.0.0.1:6660> config set maxmemory 20971520
OK

但是此时重启redis后该配置会丢失,可以执行如下命令重写配置文件

127.0.0.1:6660> config rewrite
OK

注意:此时所以配置包括主从配置都会重写。

Redis执行Lua脚本

Redis客户端支持解析和处理lua脚本,因为Redis的单线程机制,我们可以借助Lua脚本实现一些原子操作,如扣减库存/红包之类的。此处不建议使用EVAL直接发送lua脚本到客户端,因为其每次都会进行Lua脚本的解析,而是使用SCRIPT LOAD+ EVALSHA进行操作。未来不知道是否会用luajit来代替lua,让redis lua脚本性能更强。

 

到此基本的Redis知识就讲完了。

Twemproxy设置

一旦涉及到一台物理机无法存储的情况就需要考虑使用分片机制将数据存储到多台服务器,可以说是Redis集群;如果客户端都是如Java没什么问题,但是如果有多种类型客户端(如PHP、C)等也要使用那么需要保证它们的分片逻辑是一样的;另外随着客户端的增加,连接数也会随之增多,发展到一定地步肯定会出现连接数不够用的;此时Twemproxy就可以上场了。主要作用:分片、减少连接数。另外还提供了Hash Tag机制来帮助我们将相似的数据存储到同一个分片。另外也可以参考豌豆荚的https://github.com/wandoulabs/codis。

基本配置

其使用YML语法,如

alpha:
 listen: 127.0.0.1:22121
 hash: fnv1a_
 distribution: ketama
 auto_eject_hosts: true
 redis: true
 server_retry_timeout: 2000
 server_failure_limit: 1
 servers:
- 127.0.0.1:6660:1
- 127.0.0.1:6379:1

server1:是给当前分片配置起的名字,一个配置文件可以有多个分片配置;

listen : 监听的ip和端口;

hash:散列算法;

distribution:分片算法,比如一致性Hash/取模;

timeout:连接后端Redis或接收响应的超时时间;

redis:是否是redis代理,如果是false则是memcached代理;

servers:代理的服务器列表,该列表会使用distribution配置的分片算法进行分片;

 

分片算法

  hash算法: 

    one_at_a_time

    md5

    crc16

    crc32 (crc32 implementation compatible with libmemcached)

    crc32a (correct crc32 implementation as per the spec)

    fnv1_

    fnv1a_

    fnv1_32

    fnv1a_32

    hsieh

    murmur

    jenkins

  分片算法:

    ketama(一致性Hash算法)

    modula(取模)

    random(随机算法)

 

服务器列表

  servers:

   - ip:port:weight alias

  servers:

   - 127.0.0.1:6660:1

   - 127.0.0.1:6379:1

或者

  servers:

   - 127.0.0.1:6660:1 server1

 

   - 127.0.0.1:6661:1 server2

推荐使用后一种方式,默认情况下使用ip:port:weight进行散列并分片,这样假设服务器宕机换上新的服务器,那么此时得到的散列值就不一样了,因此建议给每个配置起一个别名来保证映射到自己想要的服务器。即如果不使用一致性Hash算法来作缓存服务器,而是作持久化存储服务器时就更有必要了(即不存在服务器下线的情况,即使服务器ip:port不一样但仍然要得到一样的分片结果)。

 

HashTag

比如一个商品有:商品基本信息(p:id:)、商品介绍(d:id:)、颜色尺码(c:id:)等,假设我们存储时不采用HashTag将会导致这些数据不会存储到一个分片,而是分散到多个分片,这样获取时将需要从多个分片获取数据进行合并,无法进行mget;那么如果有了HashTag,那么可以使用“::”中间的数据做分片逻辑,这样id一样的将会分到一个分片。

连接Twemproxy

./src/redis-cli -p 22121 
127.0.0.1:1111> set p:12: 1
OK
127.0.0.1:1111> set d:12: 1
OK
127.0.0.1:1111> set c:12: 1
OK

在我的服务器上可以连接22121 6660 6379端口 

adeMacBook-Pro:redis-2.8.19 apple$ ./src/redis-cli -p 22121
127.0.0.1:22121> set c:12: 1 
OK
127.0.0.1:22121> set d:12: 1 
OK
127.0.0.1:22121> set p:12: 1 
OK
127.0.0.1:22121> exit
adeMacBook-Pro:redis-2.8.19 apple$ ./src/redis-cli -p 6660
127.0.0.1:6660> get p:12: 
(nil)
127.0.0.1:6660> get d:12: 
"1"
127.0.0.1:6660> get c:12: 
(nil)
127.0.0.1:6660> exit
adeMacBook-Pro:redis-2.8.19 apple$ ./src/redis-cli -p 6379
127.0.0.1:6379> get p:12: 
"1"
127.0.0.1:6379> get d:12: 
(nil)
127.0.0.1:6379> get c:12: 
"1"
127.0.0.1:6379> 

一致性Hash与服务器宕机

如果我们把Redis服务器作为缓存服务器并使用一致性Hash进行分片,当有服务器宕机时需要自动从一致性Hash环上摘掉,或者其上线后自动加上,此时就需要如下配置:

 

#是否在节点故障无法响应时自动摘除该节点,如果作为存储需要设置为为false

auto_eject_hosts: true

#重试时间(毫秒),重新连接一个临时摘掉的故障节点的间隔,如果判断节点正常会自动加到一致性Hash环上

server_retry_timeout: 30000

#节点故障无法响应多少次从一致性Hash环临时摘掉它,默认是2

server_failure_limit: 2

 

支持的Redis命令

不是所有Redis命令都支持,请参考https://github.com//twemproxy/blob/master/notes/redis.md。

Twemproxy提供了启动/重启/停止脚本方便操作,但是需要修改配置文件位置为/usr/example/nutcracker.yml。

chmod +x ./scripts/nutcracker.init 
vim ./scripts/nutcracker.init 

将OPTIONS改为

OPTIONS="-d -c ./nutcracker.yml"

 

另外注释掉. /etc/rc.d/init.d/functions;将daemon --user ${USER} ${prog} $OPTIONS改为${prog} $OPTIONS;将killproc改为killall。

 

这样就可以使用如下脚本进行启动、重启、停止了。

./scripts/nutcracker.init {start|stop|status|restart|reload|condrestart}

 

对于扩容最简单的办法是:

1、创建新的集群;

2、双写两个集群;

3、把数据从老集群迁移到新集群(不存在才设置值,防止覆盖新的值);

4、复制速度要根据实际情况调整,不能影响老集群的性能;

5、切换到新集群即可,如果使用Twemproxy代理层的话,可以做到迁移对读的应用透明。

 

Redis/SSDB+Twemproxy的配置与使用(Mac/Linux平台)

标签:

热心网友 时间:2022-04-29 23:45

介绍:
twemproxy是*开发的一个代理程序,支持memcached和redis,本文将介绍如果使用twemproxy实现redis数据分片搭建一套强大的redis集群。具体twemproxy的特性就百度吧,这里就不介绍了。
背景:
本人在一家游戏公司工作,面对强大的玩家数据,单单的redis主从已经无法满足过大的数据,而且可扩展性不好,twemproxy代理redis服务器,可以把数据sharding到多台服务器的上,每台服务器存储着整个数据集的一部分。因而,当某一台redis服务器宕机了,那么也就失去了一部分数据。如果借助于redis的master-slave replication,能保证在任何一台redis不能工作情况下,仍然能够保证能够存在一个整个的数据集。

1
2
3
4

tar xvf autoconf-2.69.tar.gz
cd autoconf-2.69
./configure
make && make install

安装twemproxy

1
2
3
4
5

unzip twemproxy-master.zip
cd twemproxy-master
autoreconf -fvi
./configure
make && make install

安装redis(源码包去官网下载就行,这里用的2.8.3版本)

1
2
3

tar xvf redis-2.8.3.tar.gz
cd cd redis-2.8.3
make && make install

2,配置
配置redis(我们这里配置两个redis实例)
实例一:端口6379 实例二:端口6380

在redis源码包里有个redis.conf 文件就是redis的配置文件 我们手动拷贝到/etc/redis/下

1
2

cp /root/redis-2.8.3/redis.conf /etc/redis/6379.conf
cp /root/redis-2.8.3/redis.conf /etc/redis/6380.conf

修改配置文件里相应的配置

1
2
3

port 6379
logfile "/var/lib/redis/6379/redis.log"
dir /var/lib/redis/6379/

启动两个redis实例

1
2

redis-server /etc/redis/6379.conf &
redis-server /etc/redis/6380.conf &

热心网友 时间:2022-04-30 01:03

做集群吗?网上关于京东的架构里做的事多实例,多机

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com