温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Redis之-AOF

发布时间:2020-07-05 05:06:50 来源:网络 阅读:408 作者:yangjunfeng 栏目:关系型数据库

AOF是基于日志的,类似于Oracle的redo,Mysql的binlog日志。

Aof 的配置
appendonly no # 是否打开 aof日志功能

appendfsync always # 每1个命令,都立即同步到aof. 安全,速度慢
appendfsync everysec # 折衷方案,每秒写1次
appendfsync no # 写入工作交给操作系统,由操作系统判断缓冲区大小,统一写入到aof. 同步频率低,速度快,

no-appendfsync-on-rewrite yes: # 正在导出rdb快照的过程中,要不要停止同步aof
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重写时的大小,增长率100%时,重写
auto-aof-rewrite-min-size 64mb #aof文件,至少超过64M时,重写
appendfilename /var/dir/appendonly.aof #文件的路径

做个试验:
1,编辑redis.conf文件
开启aof功能,并命名aof filename
2,pkill -9 redis
3,重新启动redis
[root@test-laoyangtest redis]# pkill -9 redis
[root@test-laoyangtest redis]# ./bin/redis-server ./redis.conf
4,查看aof目录下aof文件
[root@test-laoyangtest dir]# more laoyang-appendonly.aof --为空
5,设定几个键值,然后在查看aof文件
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> set site www.woda.com
OK
127.0.0.1:6379> set www baidu.com
OK

aof文件有内容产生了
[root@test-laoyangtest dir]# more laoyang-appendonly.aof
2
$6
SELECT
$1
0
3
$3
set
$4
site
$12
www.woda.com
*3
$3
set
$3
www
$9
baidu.com

这样有个问题,如果是自动增长的值,同一个key,操作100次,aof来回要走100条记录。如何解决?
所有的key在内存中,有1个具体的状态,把key的值,逆化成命令
比如,set age 1 然后incr age了100次。那么最后aof 可以直接set age 101(这个操作叫aof重写)解决aof越来越大的问题。

【这两个参数控制】
auto-aof-rewrite-percentage 100 #aof文件大小比起上次重写时的大小,增长率100%时,重写
auto-aof-rewrite-min-size 64mb #aof文件,至少超过64M时,重写

使用工具来进行写入2w个命令
[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 20000

====== MSET (10 keys) ======
20000 requests completed in 0.32 seconds
50 parallel clients
3 bytes payload
keep alive: 1

95.03% <= 1 milliseconds
99.75% <= 7 milliseconds
100.00% <= 7 milliseconds
62695.92 requests per second ---持久化的时间增长

[root@test-laoyangtest redis]# cd /var/dir/
[root@test-laoyangtest dir]# ll
总用量 8
-rw-r--r-- 1 root root 116 6月 18 15:14 dump.rdb
-rw-r--r-- 1 root root 102 6月 18 15:02 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
总用量 13M
-rw-r--r-- 1 root root 1.7K 6月 18 15:32 dump.rdb
-rw-r--r-- 1 root root 13M 6月 18 15:32 laoyang-appendonly.aof

因为现在设定的重写是64M重写,我们插入20w数据试试

[root@test-laoyangtest redis]# ./bin/redis-benchmark -n 200000
46.13% <= 1 milliseconds
87.99% <= 2 milliseconds
98.80% <= 3 milliseconds
99.72% <= 4 milliseconds
99.84% <= 5 milliseconds
99.89% <= 6 milliseconds
99.90% <= 8 milliseconds
99.91% <= 9 milliseconds
99.92% <= 10 milliseconds
99.93% <= 13 milliseconds
99.94% <= 14 milliseconds
99.95% <= 47 milliseconds
99.96% <= 48 milliseconds
99.97% <= 49 milliseconds
99.98% <= 55 milliseconds
100.00% <= 56 milliseconds
100.00% <= 56 milliseconds
36596.52 requests per second

[root@test-laoyangtest dir]# ll -h
总用量 59M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 59M 6月 18 15:41 laoyang-appendonly.aof
[root@test-laoyangtest dir]# ll -h
总用量 2.5M
-rw-r--r-- 1 root root 1.7K 6月 18 15:41 dump.rdb
-rw-r--r-- 1 root root 2.5M 6月 18 15:42 laoyang-appendonly.aof #重写了

这会儿也可能还有冗余命令,我们可以让在内存中的,重写一下。再次减少冗余
[root@test-laoyangtest redis]# ./bin/redis-cli
127.0.0.1:6379> bgrewriteaof
Background append only file rewriting started
127.0.0.1:6379>

[root@test-laoyangtest dir]# ll -h
总用量 5.2M
-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb
-rw-r--r-- 1 root root 5.2M 6月 18 15:44 laoyang-appendonly.aof #重写以前是5.2MB
[root@test-laoyangtest dir]# ll -h
总用量 2.0M
-rw-r--r-- 1 root root 16K 6月 18 15:44 dump.rdb
-rw-r--r-- 1 root root 2.0M 6月 18 16:19 laoyang-appendonly.aof #重写以后是2MB,取消了一些冗余数据。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI