本文共 12689 字,大约阅读时间需要 42 分钟。
REmote DIctionary Server(Redis) 是一个由Salvatore Sanfilippo写的key-value存储系统。Redis是一个开源的使用ANSI C语言编写、遵守BSD协议、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。它通常被称为数据结构服务器,因为值(value)可以是 字符串(String), 哈希(Map), 列表(list), 集合(sets) 和 有序集合(sorted sets)等类型。
大家都知道了redis是基于key-value的no sql数据库,因此,先来了解一下关于key相关的知识点1、任何二进制的序列都可以作为key使用
2、Redis有统一的规则来设计key3、对key-value允许的最大长度是512MB
ActionScript Bash C C# C++ Clojure Common Lisp Crystal D Dart Elixir emacs lisp Erlang Fancy gawk GNU Prolog Go Haskell Haxe Io Java Javascript Julia Lua Matlab mruby Nim Node.js Objective-C OCaml Pascal Perl PHP Pure Data Python R Racket Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL*
1、最常用的就是会话缓存
2、消息队列,比如支付3、活动排行榜或计数4、发布、订阅消息(消息通知)5、商品列表、评论列表等
Redis是c语言开发的,安装redis需要c语言的编译环境
如果没有gcc需要在线安装:yum install gcc-c++第一步:获取源码包:wget
第二步:解压缩redis:tar zxvf redis-3.0.0.tar.gz第三步:编译。进入redis源码目录(cd redis-3.0.0)。执行 make第四步:安装。make install PREFIX=/usr/local/redis#PREFIX参数指定redis的安装目录
Redis一共支持五种数据类型
1、string(字符串)
2、hash(哈希)3、list(列表)4、set(集合)5、zset(sorted set 有序集合)
它是redis最基本的数据类型,一个key对应一个value,需要注意是一个键值最大存储512MB。
128.127.0.0.1:6379> set key "hello world"OK127.0.0.1:6379> get key"hello world"127.0.0.1:6379> getset key "nihao""hello world"127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello"OK127.0.0.1:6379> get key1"hi"127.0.0.1:6379> get key2"nihao"127.0.0.1:6379> get key3"hello"
set 为一个Key设置value(值)
get 获得某个key对应的value(值)getset 为一个Key设置value(值)并返回对应的值mset 为多个key设置value(值)
redis hash是一个键值对的集合, 是一个string类型的field和value的映射表,适合用于存储对象
128.127.0.0.1:6379> hset redishash 1 "001"(integer) 1127.0.0.1:6379> hget redishash 1"001"127.0.0.1:6379> hmset redishash 1 "001" 2 "002"OK127.0.0.1:6379> hget redishash 1"001"127.0.0.1:6379> hget redishash 2"002"127.0.0.1:6379> hmget redishash 1 21) "001"2) "002"
hset 将Key对应的hash中的field配置为value,如果hash不存则自动创建,
hget 获得某个hash中的field配置的值hmset 批量配置同一个hash中的多个field值hmget 批量获得同一个hash中的多个field值
是redis简单的字符串列表,它按插入顺序排序
128.127.0.0.1:6379> lpush word hi(integer) 1127.0.0.1:6379> lpush word hello(integer) 2127.0.0.1:6379> rpush word world(integer) 3127.0.0.1:6379> lrange word 0 21) "hello"2) "hi"3) "world"127.0.0.1:6379> llen word(integer) 3
lpush 向指定的列表左侧插入元素,返回插入后列表的长度
rpush 向指定的列表右侧插入元素,返回插入后列表的长度llen 返回指定列表的长度lrange 返回指定列表中指定范围的元素值
是string类型的无序集合,也不可重复
128.127.0.0.1:6379> sadd redis redisset(integer) 1127.0.0.1:6379> sadd redis redisset1(integer) 1127.0.0.1:6379> sadd redis redisset2(integer) 1127.0.0.1:6379> smembers redis1) "redisset1"2) "redisset"3) "redisset2"127.0.0.1:6379> sadd redis redisset2(integer) 0127.0.0.1:6379> smembers redis1) "redisset1"2) "redisset"3) "redisset2"127.0.0.1:6379> smembers redis1) "redisset1"2) "redisset3"3) "redisset"4) "redisset2"127.0.0.1:6379> srem redis redisset(integer) 1127.0.0.1:6379> smembers redis1) "redisset1"2) "redisset3"3) "redisset2"
sadd 添加一个string元素到key对应的set集合中,成功返回1,如果元素存在返回0
smembers 返回指定的集合中所有的元素srem 删除指定集合的某个元素
是string类型的有序集合,也不可重复
sorted set中的每个元素都需要指定一个分数,根据分数对元素进行升序排序如果多个元素有相同的分数,则以字典序进行升序排序sorted set 因此非常适合实现排名128.127.0.0.1:6379> zadd nosql 0 001(integer) 1127.0.0.1:6379> zadd nosql 0 002(integer) 1127.0.0.1:6379> zadd nosql 0 003(integer) 1127.0.0.1:6379> zcount nosql 0 0 (integer) 3127.0.0.1:6379> zcount nosql 0 3(integer) 3127.0.0.1:6379> zrem nosql 002(integer) 1127.0.0.1:6379> zcount nosql 0 3(integer) 2127.0.0.1:6379> zscore nosql 003"0"127.0.0.1:6379> zrangebyscore nosql 0 101) "001"2) "003"127.0.0.1:6379> zadd nosql 1 003(integer) 0127.0.0.1:6379> zadd nosql 1 004(integer) 1127.0.0.1:6379> zrangebyscore nosql 0 101) "001"2) "003"3) "004"127.0.0.1:6379> zadd nosql 3 005(integer) 1127.0.0.1:6379> zadd nosql 2 006(integer) 1127.0.0.1:6379> zrangebyscore nosql 0 101) "001"2) "003"3) "004"4) "006"5) "005"
zadd 向指定的sorteset中添加1个或多个元素
zrem 从指定的sorteset中删除1个或多个元素zcount 查看指定的sorteset中指定分数范围内的元素数量zscore 查看指定的sorteset中指定分数的元素zrangebyscore 查看指定的sorteset中指定分数范围内的所有元素
128.127.0.0.1:6379> exists key(integer) 1127.0.0.1:6379> exists key1(integer) 1127.0.0.1:6379> exists key100(integer) 0127.0.0.1:6379> get key"nihao,hello"127.0.0.1:6379> get key1"hi"127.0.0.1:6379> del key1(integer) 1127.0.0.1:6379> get key1(nil)127.0.0.1:6379> rename key key0OK127.0.0.1:6379> get key(nil)127.0.0.1:6379> get key0"nihao,hello"127.0.0.1:6379> type key0string
exists 确认key是否存在
del 删除keyexpire 设置Key过期时间(单位秒)persist 移除Key过期时间的配置rename 重命名keytype 返回值的类型
128.127.0.0.1:6379> select 0OK127.0.0.1:6379> info# Serverredis_version:3.0.6redis_git_sha1:00000000redis_git_dirty:0redis_build_id:347e3eeef5029f3redis_mode:standaloneos:Linux 3.10.0-693.el7.x86_64 x86_64arch_bits:64multiplexing_api:epollgcc_version:4.8.5process_id:31197run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12tcp_port:6379uptime_in_seconds:8514uptime_in_days:0hz:10lru_clock:14015928config_file:/usr/local/redis/redis.conf-------------------省略N行127.0.0.1:6379> CONFIG GET 0(empty list or set)127.0.0.1:6379> CONFIG GET 15(empty list or set)
slect 选择数据库(数据库编号0-15)
quit 退出连接info 获得服务的信息与统计monitor 实时监控config get 获得服务配置flushdb 删除当前选择的数据库中的keyflushall 删除所有数据库中的key
Redis发布与订阅(pub/sub)是它的一种消息通信模式,一方发送信息,一方接收信息。
下图是三个客户端同时订阅同一个频道下图是有新信息发送给频道1时,就会将消息发送给订阅它的三个客户端Redis事务可以一次执行多条命令,发送exec命令前放入队列缓存,结束事务,收到exec命令后执行事务操作,如果某一命令执行失败,其它命令仍可继续执行,一个事务执行的过程中,其它客户端提交的请求不会被插入到事务执行的命令列表中。
开始事务(命令:multi)
命令执行结束事务(命令:exec)128.127.0.0.1:6379> MULTIOK127.0.0.1:6379> set key key1QUEUED127.0.0.1:6379> get keyQUEUED127.0.0.1:6379> rename key key001QUEUED127.0.0.1:6379> exec1) OK2) "key1"3) OK
可以通过修改配置文件设备密码参数来提高安全性
# requirepass foobared 去掉注释#号就可以配置密码没有配置密码的情况下查询如下127.0.0.1:6379> CONFIG GET requirepass1) "requirepass"2) ""配置密码之后,就需要进行认证127.0.0.1:6379> CONFIG GET requirepass(error) NOAUTH Authentication required.127.0.0.1:6379> AUTH foobared #认证OK127.0.0.1:6379> CONFIG GET requirepass1) "requirepass"2) "foobared"
Redis持久有两种方式:Snapshotting(快照),Append-only file(AOF)
1、将存储在内存的数据以快照的方式写入二进制文件中,如默认dump.rdb中
2、save 900 1 #900秒内如果超过1个Key被修改,则启动快照保存3、save 300 10 #300秒内如果超过10个Key被修改,则启动快照保存4、save 60 10000 #60秒内如果超过10000个Key被修改,则启动快照保存
1、使用AOF持久时,服务会将每个收到的写命令通过write函数追加到文件中(appendonly.aof)
2、AOF持久化存储方式参数说明appendonly yes #开启AOF持久化存储方式 appendfsync always #收到写命令后就立即写入磁盘,效率最差,效果最好appendfsync everysec #每秒写入磁盘一次,效率与效果居中appendfsync no #完全依赖OS,效率最佳,效果没法保证
自带相关测试工具
[root@test ~]# redis-benchmark --helpUsage: redis-benchmark [-h] [-p ] [-c ] [-n [-k ] -h Server hostname (default 127.0.0.1) -p Server port (default 6379) -s Server socket (overrides host and port) -a Password for Redis Auth -c Number of parallel connections (default 50) -n Total number of requests (default 100000) -d Data size of SET/GET value in bytes (default 2) -dbnum SELECT the specified db number (default 0) -k 1=keep alive 0=reconnect (default 1) -r Use random keys for SET/GET/INCR, random values for SADD Using this option the benchmark will expand the string __rand_int__ inside an argument with a 12 digits number in the specified range from 0 to keyspacelen-1. The substitution changes every time a command is executed. Default tests use this to hit random keys in the specified range. -P Pipeline requests. Default 1 (no pipeline). -q Quiet. Just show query/sec values --csv Output in CSV format -l Loop. Run the tests forever -t Only run the comma separated list of tests. The test names are the same as the ones produced as output. -I Idle mode. Just open N idle connections and wait.Examples: Run the benchmark with the default configuration against 127.0.0.1:6379: $ redis-benchmark Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1: $ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20 Fill 127.0.0.1:6379 with about 1 million keys only using the SET test: $ redis-benchmark -t set -n 1000000 -r 100000000 Benchmark 127.0.0.1:6379 for a few commands producing CSV output: $ redis-benchmark -t ping,set,get -n 100000 --csv Benchmark a specific command line: $ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0 Fill a list with 10000 random elements: $ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__ On user specified command lines __rand_int__ is replaced with a random integer with a range of values selected by the -r option.
[root@test ~]# redis-benchmark -n 1000000 -qPING_INLINE: 152578.58 requests per secondPING_BULK: 150308.14 requests per secondSET: 143266.47 requests per secondGET: 148632.58 requests per secondINCR: 145857.64 requests per secondLPUSH: 143781.45 requests per secondLPOP: 147819.66 requests per secondSADD: 138350.86 requests per secondSPOP: 134282.27 requests per secondLPUSH (needed to benchmark LRANGE): 141302.81 requests per secondLRANGE_100 (first 100 elements): 146756.67 requests per secondLRANGE_300 (first 300 elements): 148104.27 requests per secondLRANGE_500 (first 450 elements): 152671.75 requests per secondLRANGE_600 (first 600 elements): 148104.27 requests per secondMSET (10 keys): 132731.62 requests per second
第一种是通过dump.rdb文件实现备份
第二种使用aof文件实现自动备份
Redis服务默认的自动文件备份方式(AOF没有开启的情况下),在服务启动时,就会自动从dump.rdb文件中去加载数据。
具体配置在redis.confsave 900 1 save 300 10 save 60 10000
也可以手工执行save命令实现手动备份
128.127.0.0.1:6379> set name keyOK127.0.0.1:6379> SAVEOK127.0.0.1:6379> set name key1OK127.0.0.1:6379> BGSAVEBackground saving startedredis快照到dump文件时,会自动生成dump.rdb的文件# The filename where to dump the DBdbfilename dump.rdb-rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb
SAVE命令表示使用主进程将当前数据库快照到dump文件
BGSAVE命令表示,主进程会fork一个子进程来进行快照备份两种备份不同之处,前者会阻塞主进程,后者不会。
# Note that you must specify a directory here, not a file name.dir /usr/local/redisdata/备份文件存储路径127.0.0.1:6379> CONFIG GET dir1) "dir"2) "/usr/local/redisdata"127.0.0.1:6379> set key 001OK127.0.0.1:6379> set key1 002OK127.0.0.1:6379> set key2 003OK127.0.0.1:6379> saveOK
将备份文件备份到其它目录
[root@test ~]# ll /usr/local/redisdata/total 4-rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb[root@test ~]# dateTue Apr 17 21:25:38 CST 2018[root@test ~]# cp ./dump.rdb /tmp/
删除数据
128.127.0.0.1:6379> del key1(integer) 1127.0.0.1:6379> get key1(nil)
关闭服务,将原备份文件拷贝回save备份目录
[root@test ~]# redis-cli -a foobared shutdown[root@test ~]# lsof -i :6379[root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y[root@test ~]# redis-server /usr/local/redis/redis.conf &[1] 31487
登录查看数据是否恢复
[root@test ~]# redis-cli -a foobared127.0.0.1:6379> mget key key1 key21) "001"2) "002"3) "003"
redis服务默认是关闭此项配置
###### APPEND ONLY MODE ##########appendonly no# The name of the append only file (default: "appendonly.aof")appendfilename "appendonly.aof"# appendfsync alwaysappendfsync everysec# appendfsync no
配置文件的相关参数,前面已经详细介绍过。
AOF文件备份,是备份所有的历史记录以及执行过的命令,和mysql binlog很相似,在恢复时就是重新执次一次之前执行的命令,需要注意的就是在恢复之前,和数据库恢复一样需要手工删除执行过的del或误操作的命令。1、aof文件备份与dump文件备份不同
2、服务读取文件的优先顺序不同,会按照以下优先级进行启动如果只配置AOF,重启时加载AOF文件恢复数据如果同时 配置了RBD和AOF,启动是只加载AOF文件恢复数据如果只配置RBD,启动时将加载dump文件恢复数据
hash-max-ziplist-entries 512 hash-max-ziplist-value 64 list-max-ziplist-entries 512 list-max-ziplist-value 64
list的成员与值都不太大的时候会采用紧凑格式来存储,相对内存开销也较小,在linux环境运行Redis时,如果系统的内存比较小,这个时候自动备份会有可能失败,需要修改系统的vm.overcommit_memory 参数,这个参数是linux系统的内存分配策略。
0 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。 1 表示内核允许分配所有的物理内存,而不管当前的内存状态如何。 2 表示内核允许分配超过所有物理内存和交换空间总和的内存Redis官方的说明是,建议将vm.overcommit_memory的值修改为1,可以用下面几种方式进行修改:
(1)编辑/etc/sysctl.conf ,改vm.overcommit_memory=1,然后sysctl -p 使配置文件生效(2)sysctl vm.overcommit_memory=1(3)echo 1 > /proc/sys/vm/overcommit_memory
定时快照:效率不高,会丢失数据 AOF:保持数据完整性(一个实例的数量不要太大2G最大)
1)根据业务需要选择合适的数据类型
2)当业务场景不需持久化时就关闭所有持久化方式(采用ssd磁盘来提升效率)3)不要使用虚拟内存的方式,每秒实时写入AOF4)不要让REDIS所在的服务器物理内存使用超过内存总量的3/55)要使用maxmemory6)大数据量按业务分开使用多个redis实例
集群是将多个redis实例集中在一起,实现同一业务需求,或者实现高可用与负载均衡
到底有哪些集群方案呢??
1)通过redis的配置文件,实现主从复制、读写分离
2)通过haproxy的配置,实现负载均衡,当从故障时也会及时从集群中T除3)利用keepalived来实现负载的高可用Redis Cluster是Redis的分布式解决方案,在Redis 3.0版本正式推出的,有效解决了Redis分布式方面的需求。当遇到单机内存、并发、流量等瓶颈时,可以采用Cluster架构达到负载均衡的目的。
1)官方推荐,毋庸置疑。2)去中心化,集群最大可增加1000个节点,性能随节点增加而线性扩展。3)管理方便,后续可自行增加或摘除节点,移动分槽等等。4)简单,易上手。转载于:https://blog.51cto.com/mingongge/2116046