【Redis】Redis配置文件详解(很全)

【Redis】Redis配置文件详解(很全)文章目录 Redis 配置文件 UnitsNetwork 网络相关 GENERAL 通用配置 SNAPSHOTTING 快照相关 SECURITY 安全相关 CLIENTS 客户端配置 MEMORYMANAGE 内存管理 LAZYFREEING 懒惰删除 THREADEDI OKERNELOOMCO 设置 OOM 时终止哪些进程 APPENDONLYMO 持久化配置 LUASCRIPTING LUA 脚本相关 REDISCLUSTER 集群配置 CLUSTERDOCKE NATsuppor

Redis配置文件

redis版本: 6.0.16

Units

  • 配置数据单位换算关系
     该部分用于指定存储单位的大小换算关系,不区分大小写,只支持bytes,不支持bits # 1k => 1000 bytes # 1kb => 1024 bytes # 1m => bytes # 1mb => 1024*1024 bytes # 1g => bytes # 1gb => 1024*1024*1024 bytes # # units are case insensitive so 1GB 1Gb 1gB are all the same. 
  • 包含其它配置文件的信息 include path

    对于公共部分配置,可以按以下方式配置引入

    # include /path/to/local.conf # include /path/to/other.conf 

Network 网络相关

  • bind IP1 [IP2 …]

    这项配置绑定的IP并不是远程访问的客户端的IP地址,而是本机的IP地址。

    # bind 192.168.1.100 10.0.0.1 # bind 127.0.0.1 ::1 bind 127.0.0.1 

    本机的IP地址是和网卡(network interfaces)绑定在一起的,配置这项后,Redis只会接收来自指定网卡的数据包。比如我的主机有以下网卡:

    root@VM-4-5-ubuntu:~# ifconfig  eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 10.0.4.5 netmask 255.255.252.0 broadcast 10.0.7.255 inet6 fe80::5054:ff:fe0b:843 prefixlen 64 scopeid 0x20<link> ether 52:54:00:0b:08:43 txqueuelen 1000 (Ethernet) RX packets  bytes  (28.0 MB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets  bytes  (43.0 MB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 inet 127.0.0.1 netmask 255.0.0.0 inet6 ::1 prefixlen 128 scopeid 0x10<host> loop txqueuelen 1000 (Local Loopback) RX packets 35168 bytes  (2.5 MB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 35168 bytes  (2.5 MB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 

    如果我想要让Redis可以远程连接的话,就需要让Redis监听eht0这块网卡,也就是要加上配置bind 127.0.0.1 10.0.4.5,这样既可以本地访问,也能够远程访问。(主要bind只能有一行配置,如果有多个网卡要监听,就配置多个ip,用空格隔开,否者只有配置的最后一个bind生效)。

  • 保护模式 protected-mode

    从注释信息就可以看到,如果protected-modeyes的话,如果没有指定bind或者没有指定密码,那么只能本地访问。

    protected-mode yes 
  • 端口号 port

    配置Redis监听的端口号,默认6379。

    # Accept connections on the specified port, default is 6379 (IANA #). # If port 0 is specified Redis will not listen on a TCP socket. port 6379 
  • TCP半连接队列长度配置 tcp-backlog

    在进行TCP/IP连接时,内核会维护两个队列

    • syns queue用于保存已收到sync但没有接收到ack的TCP半连接请求。由/proc/sys/net/ipv4/tcp_max_syn_backlog指定,我的系统(Ubuntu20.04)上是1024。
    • accept queue,用于保存已经建立的连接,也就是全连接。由/proc/sys/net/core/somaxconn指定。

    根据配置里的注释,需要同时提高somaxconntcp_max_syn_backlog的值来确保生效。

    tcp-backlog 511 
  • 是否超时无操作关闭连接 timeout

    客户端经过多少时间(单位秒)没有操作就关闭连接,0代表永不关闭。

    timeout 0 
  • TCP连接保活策略 tcp-keepalive

    TCP连接保活策略,可以通过tcp-keepalive配置项来进行设置,单位为秒,假如设置为60秒,则server端会每60秒向连接空闲的客户端发起一次ACK请求,以检查客户端是否已经挂掉,对于无响应的客户端则会关闭其连接。如果设置为0,则不会进行保活检测。

    tcp-keepalive 300 

GENERAL 通用配置

  • 启动方式 daemonize

    是否以守护(后台)进程的方式启动,默认no。

    daemonize yes 
  • 进程pid文件 pidfile

    redis启动后会把pid写入到pidfile指定的文件中。

    pidfile /var/run/redis_6379.pid 
  • 日志相关 loglevel logfile

    loglevel用于配置日志打印机别,默认notice

    • debug:能设置的最高的日志级别,打印所有信息,包括debug信息。
    • verbose:打印除了debug日志之外的所有日志。
    • notice:打印除了debugverbose级别的所有日志。
    • warning:仅打印非常重要的信息。
    loglevel notice logfile "" 
  • 指定数据库的数量 databse

    redis默认有16个数据库,编号从0开始。

    databases 16 
  • 启动是否显示logo
    always-show-logo yes 

SNAPSHOTTING 快照相关

SECURITY 安全相关

# SECURITY  # Warning: since Redis is pretty fast, an outside user can try up to # 1 million passwords per second against a modern box. This means that you # should use very strong passwords, otherwise they will be very easy to break. # Note that because the password is really a shared secret between the client # and the server, and should not be memorized by any human, the password # can be easily a long string from /dev/urandom or whatever, so by using a # long and unguessable password no brute force attack will be possible. 

大致意思就是redis很快,所以被激活成功教程密码时,性能也很好,如果你的密码太渣渣了,那么可能很快就被激活成功教程了,因此尽量使用长且不容易被猜到的密码作为redis的访问密码。

  • 配置ACL

    ACL:访问控制列表。

    有两种方法配置ACL:

    • 在命令行通过ACL命令进行配置
    • 在Redis配置文件中开始,可以直接在redis.conf中配置,也可以通过外部aclfile配置。aclfile path

    配置语法:user

    ... acl rules ...
    ,例如 user worker +@list +@connection ~jobs:* on >ffa9203c493aa99

    redis默认有一个default用户。如果default具有nopass规则(就是说没有配置密码),那么新连接将立即作为default用户登录,无需通过AUTH命令提供任何密码。否则,连接会在未验证状态下启动,并需要AUTH验证才能开始工作。


    描述用户可以做的操作的ACL规则如下:

    • 启用或禁用用户(已经建立的连接不会生效)
      • on 启用用户,该用户可以验证身份登陆。
      • off 禁用用户,该用户不允许验证身份登陆。
    • 允许/禁止用户执行某些命令
      • + 允许用户执行command指示的命令✅
      • - 禁止用户执行command指示的命令?
      • +@
        允许用户执行category分类中的所有命令✅
      • -@
        禁止用户执行category分类中的所有命令?
      • +|subcommand 允许执行某个被禁止的command的子命令subcommand。没有对应的-规则。✅
      • allcommands +@all的别名,允许执行所有命令。✅
      • nocommands -@all的别名,禁止执行所有命令。?
    • 允许/禁止用户访问某些Key
      • ~ 添加用户可以访问的Key,比如~*代表用户可以访问所有key,~K*代表用户可访问以K开头的key。✅
      • allkeys 等价于~*
      • resetkeys ~ 刷新允许模式的列表,会覆盖之前设置的模式。例如 user test ~* resetkeys ~K*,则只允许访问匹配K*的键,~*失效。✅
    • 为用户配置有效密码
      • > 将密码添加到用户的有效密码列表中。例如user test >mypass on,则用户test可以使用mypass验证。
      • < 将密码从用户的有效密码列表中删除,即不可以使用该密码验证。
      • nopass 使用任意密码都可以成功验证。
      • resetpass 清除用户可用密码列表的数据,并清除 nopass 状态。之后该用户不能登陆。直到重新设置密码/设置nopass
      • reset 重置用户到初始状态。该命令会执行以下操作:resetpass, resetkeys, off,-@all
  • ACL日志配置

    设置ACL日志最大长度,默认128个记录。这个日志是存在内存里的。

    acllog-max-len 128 
  • 外部ACL文件配置

    默认位置etc/redis/users.acl,我们可以在这个文件中定义所有用户的ACL控制信息。

    aclfile /etc/redis/users.acl 
  • 配置默认用户default的密码

    该配置只对默认用户default生效。

    requirepass yourpass 

CLIENTS 客户端配置

  • 设置最大同时客户端连接数

    设置可以同时连接客户端的最大数量。默认该项设置为 10000 个客户端。达到限制值后的连接会被拒绝并会返回错误信息。

    maxclients 10000 

MEMORY MANAGEMENT 内存管理

  • 最大内存限制

    指定Redis最大内存限制。达到内存限制时,Redis将尝试删除已到期或即将到期的Key。

    maxmemory <bytes> 
  • 达到最大内存限制时的策略

    配置达到最大内存限制后,Redis进行何种操作。默认noeviction

    maxmemory-policy noeviction 

    总共有8种策略可供选择。

    • volatile-lru 只对设置了过期时间的Key进行淘汰,淘汰算法近似的LRU。
    • allkeys-lru 对所有Key进行淘汰,LRU。
    • volatile-lfu 只对设置了过期时间的Key进行淘汰,淘汰算法近似的LFU。
    • allkeys-lfu 对所有Key进行淘汰,LFU。
    • volatile-random 只对设置了过期时间的Key进行淘汰,淘汰算法为随机淘汰。
    • allkeys-random 对所有Key进行淘汰,随机淘汰。
    • volatile-ttl 只对设置了过期时间的Key进行淘汰,删除即将过期的即ttl最小的。
    • noeviction 永不删除key,达到最大内存再进行数据装入时会返回错误。

    对于可以通过删除key来释放内存的策略,如果没有key可以删除了,那么也会报错。

  • 使用LRU/LFU/TTL算法时采样率

    Redis使用的是近似的LRU/LFU/minimal TTL算法。主要是为了节约内存以及提升性能。Redis配置文件有maxmemory-samples选项,可以配置每次取样的数量。Redis每次会选择配置数量的key,然后根据算法从中淘汰最差的key。

    maxmemory-samples 5 

    可以通过修改这个配置来获取更高的淘汰精度或者更好的性能。默认值5就可以获得很好的结果。选择10可以非常接近真是的LRU算法,但是会耗费更多的CPU资源。3的话更快但是淘汰结果不是特别准确。

  • 从库不淘汰数据

    配置Redis主从复制时,从库超过maxmemory也不淘汰数据。这个配置主要是为了保证主从库的一致性,因为Redis的淘汰策略是随机的,如果允许从库自己淘汰key,那么会导致主从不一致的现象出现(master节点删除key的命令会同步给slave节点)。

    replica-ignore-maxmemory yes 
  • 过期keys驻留在内存中的比例

    设置过期keys仍然驻留在内存中的比重,默认是为1,表示最多只能有10%的过期key驻留在内存中,该值设置的越小,那么在一个淘汰周期内,消耗的CPU资源也更多,因为需要实时删除更多的过期key。

    active-expire-effort 1 

LAZY FREEING 懒惰删除

# Redis has two primitives to delete keys. One is called DEL and is a blocking # deletion of the object. It means that the server stops processing new commands # in order to reclaim all the memory associated with an object in a synchronous # way. If the key deleted is associated with a small object, the time needed # in order to execute the DEL command is very small and comparable to most other # O(1) or O(log_N) commands in Redis. However if the key is associated with an # aggregated value containing millions of elements, the server can block for # a long time (even seconds) in order to complete the operation. #  # For the above reasons Redis also offers non blocking deletion primitives # such as UNLINK (non blocking DEL) and the ASYNC option of FLUSHALL and # FLUSHDB commands, in order to reclaim memory in background. Those commands # are executed in constant time. Another thread will incrementally free the # object in the background as fast as possible. # DEL, UNLINK and ASYNC option of FLUSHALL and FLUSHDB are user-controlled. # It's up to the design of the application to understand when it is a good # idea to use one or the other. However the Redis server sometimes has to # delete keys or flush the whole database as a side effect of other operations. # Specifically Redis deletes objects independently of a user call in the # following scenarios: # # 1) On eviction, because of the maxmemory and maxmemory policy configurations, # in order to make room for new data, without going over the specified # memory limit. # 2) Because of expire: when a key with an associated time to live (see the # EXPIRE command) must be deleted from memory. # 3) Because of a side effect of a command that stores data on a key that may # already exist. For example the RENAME command may delete the old key # content when it is replaced with another one. Similarly SUNIONSTORE # or SORT with STORE option may delete existing keys. The SET command # itself removes any old content of the specified key in order to replace # it with the specified string. # 4) During replication, when a replica performs a full resynchronization with # its master, the content of the whole database is removed in order to # load the RDB file just transferred. # # In all the above cases the default is to delete objects in a blocking way, # like if DEL was called. However you can configure each case specifically # in order to instead release memory in a non-blocking way like if UNLINK # was called, using the following configuration directives. 

翻译上面的话就是:

Redis有两个删除keys的原语。一个是DEL并且它是一个阻塞的删除对象的操作。意味着server会停止处理新的command以便以同步的方式回收与对象关联的所有内存。如果被删除的key关联的是一个小对象,那么执行DEL命令所需要的时间非常短,与Redis中其它O(1)O(log_N)的命令时间开销几乎一样。然鹅,如果key与包含了数百万个元素的大对象相关联,那么服务器为了完成删除命令会阻塞很长时间(甚至几秒钟)。

出于以上原因,Redis提供了非阻塞的删除原语,例如UNLINK(非阻塞式的DEL)和FLUSHALLFLUSHDB命令的ASYNC选项,以便在后台回收内存。这些命令会在常量(固定的)时间内执行。另外一个线程会在后台尽可能快的以渐进式的方式释放对象。

使用DEL,UNLINK以及FLUSHALLFLUSHDBASYNC选项是由用户来控制的。这应该由应用程序的设计来决定使用其中的哪一个。 然鹅,作为其它操作的副作用,Redis server有时不得不去删除keys或者刷新整个数据库。具体来说,Redis在以下情况下会独立于用户调用而删除对象:

1) 由于maxmemorymaxmemory policy的设置,为了在不超出指定的内存限制而为新对象腾出空间而逐出旧对象;

2) 因为过期:当一个key设置了过期时间且必须从内存中删除时;

3) 由于在已经存在的key上存储对象的命令的副作用。例如,RENAME命令可能会删除旧的key的内容,当该key的内容被其它内容代替时。类似的,SUNIONSTORE或者带STORE选项的SORT命令可能会删除已经存在的keys。SET命令会删除指定键的任何旧内容,以便使用指定字符串替换。

4)在复制过程中,当副库与主库执行完全重新同步时,整个数据库的内容将被删除,以便加载刚刚传输的RDB文件。

在上述所有情况下,默认情况是以阻塞方式删除对象,就像调用DEL一样。但是,你可以使用以下配置指令专门配置每种情况,以非阻塞的方式释放内存,就像调用UNLINK一样。


相关的配置:

# 内存达到设置的maxmemory时,是否使用惰性删除,对应上面 1) lazyfree-lazy-eviction no # 过期keys是否惰性删除,对应上面 2) lazyfree-lazy-expire no # 内部删除选项,对应上面选项 3)的情况是否惰性删除 lazyfree-lazy-server-del no # slave接收完RDB文件后清空数据是否是惰性的,对应上面情况 4) replica-lazy-flush no # It is also possible, for the case when to replace the user code DEL calls # with UNLINK calls is not easy, to modify the default behavior of the DEL # command to act exactly like UNLINK, using the following configuration # directive: # 是否将DEL调用替换为UNLINK,注释里写的从user code里替换DEL调用为UNLINK调用可能并不是一件 # 容易的事,因此可以使用以下选项,将DEL的行为替换为UNLINK lazyfree-lazy-user-del no 

THREADED I/O

Redis大体上是单线程的,但是也有一些场景使用额外的线程去做的,比如UNLINKslow I/O accesses

现在还可以在不同的I/O线程中处理Redis客户端socket读写。(只是网络IO这块儿成了多线程,执行命令的那个家伙,还是单线程!)特别是因为写操作很慢,通常Redis的用户使用pipeline来提升每个核心下的Redis性能,并且运行多个Redis实例来实现扩展。使用多线程I/O,不需要使用pipeline和实例切分,就可以轻松的提升两倍的性能。

默认情况下,多线程是禁用的,我们建议只在至少有4个或更多内核的机器中启用多线程,至少保留一个备用内核。使用超过8个线程不太可能有多大帮助。我们还建议仅当您确实存在性能问题时才使用线程化I/O,因为除非Redis实例能够占用相当大的CPU时间,否则使用此功能没有意义。

redis.conf相关配置翻译

  • 配置IO线程数

如果你的机器是4核的,可以配置2个或者3个线程。如果你有8核,可以配置6个线程。通过下面这个参数来配置线程数:

io-threads 4 

io-threads设置为1将只使用主线程。当启用I/O线程时,我们只使用多线程进行写操作,也就是说,执行write(2)系统调用并将Client缓冲区传输到套接字。但是,也可以通过将以下配置指令设置为yes来启用读取线程和协议解析:

io-threads-do-reads no 

通常情况下多线程的read并没有什么卵用。

需要注意的两点是:

  • 这两个配置不能运行时通过CONFIG SET来改变,而且开启SSL功能时,多线程I/O同样不会生效。
  • 如果你想用benchmark脚本测试多线程下的性能提升,确保benchmark也是多线程模式,在后面加上--threads参数,来匹配Redis的线程数。不然看不到什么性能提升。

KERNEL OOM CONTROL 设置OOM时终止哪些进程

在Linux上,可以提示内核OOM killer在OOM发生时应该首先终止哪些进程。

启用此功能可使Redis根据其角色主动控制其所有进程的oom_score_adj值。默认分数将尝试在所有其他进程之前杀死背景子进程,并在主进程之前杀死从节点进程。

Redis支持三个选项:

  • no:对oom-score-adj不做任何修改(默认值)
  • yesrelative的别名
  • absoluteoom-score-adj-values配置的值将写入内核
  • relative:当服务器启动时,使用相对于oom_score_adj初始值的值,然后将其限制在-1000到1000的范围内。因为初始值通常为0,所以它们通常与绝对值匹配。
oom-score-adj no 

当使用oom-score-adj选项(不为no)时,该指令控制用于主、从和后台子进程的特定值。数值范围为-2000到2000(越高意味着死亡的可能性越大)。

非特权进程(不是根进程,也没有CAP_SYS_RESOURCE功能)可以自由地增加它们的价值,但不能将其降低到初始设置以下。这意味着将oom score adj设置为“相对”,并将oom score adj值设置为正值将始终成功

# 分别控制主进程、从进程和后台子进程的值 oom-score-adj-values 0 200 800 

APPEND ONLY MODE AOF持久化配置

  • 开始/关闭aof
    appendonly no 
  • aof文件名称
    appendfilename "appendonly.aof" 
  • 执行fsync()系统调用刷盘的频率
    appendfsync everysec 
    • everysec:每秒执行,可能会丢失最后一秒的数据。
    • always:每次写操作执行,数据最安全,但是对性能有影响。
    • no:不强制刷盘,由内核决定什么时候刷盘,数据最不安全,性能最好。
  • 当有后台保存任务时,关闭appendfsync

    当后台在执行save任务或者aof文件的rewrite时,会对磁盘造成大量I/O操作,在某些Linux配置中,Redis可能会在fsync()系统调用上阻塞很长时间。需要注意的是,目前还没有很好的解决方法,因为即使是在不同的线程中执行fsync()调用也会阻塞write(2)调用。

    为了缓解上述问题,可以使用以下选项,防止在进行BGSAVE或者BGREWRITEAOF时在主进程中调用fsync()

    这意味这如果有其它子进程在执行saving任务时,Redis的行为相当于配置了appendfsync none。实际上,这意味着在最坏的情况下(使用Linux默认设置),可能丢失最多30s的日志。

    如果您有延迟的问题(性能问题),将此设置为“yes”,否则,设置为“no”。从持久化的角度看,这是最安全的选择。

    no-appendfsync-on-rewrite no 
  • 自动重写aof文件

    在AOF文件大小增长到了指定的百分比(相对于上次AOF文件大小的增长量)或者最小体积时,自动调用BGREWRITEAOF命令重写AOF文件。

    auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb 
  • AOF文件末尾被截断

    在Redis启动过程的最后,当AOF数据加载回内存时,可能会发现AOF文件被截断。当运行Redis的系统崩溃时,可能会发生这种情况,尤其是在安装ext4文件系统时,没有data=ordered选项(然而,当Redis本身崩溃或中止,但操作系统仍然正常工作时,这种情况不会发生)。

    Redis可以在出现这种情况时带着错误退出,也可以加载尽可能多的数据(现在是默认值),并在发现AOF文件在最后被截断时启动。以下选项控制此行为。

    如果aof load truncated设置为yes,则会加载一个被截断的aof文件,Redis服务器开始发送日志,通知用户该事件。否则,如果该选项设置为“no”,服务器将因错误而中止并拒绝启动。当选项设置为“no”时,用户需要使用“redis-check-aof”实用程序修复AOF文件,然后才能重新启动服务器。

    请注意,如果在中间发现AOF文件已损坏,服务器仍将退出并出现错误。此选项仅适用于Redis尝试从AOF文件读取更多数据,但找不到足够字节的情况。

    aof-load-truncated yes 
  • 开启混合持久化

    当重写AOF文件时,Redis能够在AOF文件中使用RDB前导,以更快地重写和恢复。启用此选项后,重写的AOF文件由两个不同的节组成:

    [RDB file][AOF tail]

    加载时,Redis识别出AOF文件以“Redis”字符串开头,并加载带前缀的RDB文件,然后继续加载AOF尾部。

    aof-use-rdb-preamble yes 

LUA SCRIPTING-LUA脚本相关

  • 配置LUA脚本最大执行时长

    单位毫秒,默认5s。当脚本运行时间超过限制后,Redis将开始接受其他命令当不会执行,而是会返回BUSY错误。

    lua-time-limit 5000 

REDIS CLUSTER 集群配置

  • 允许集群模式

    只有以集群模式启动的Redis实例才能作为集群的节点

    cluster-enabled yes 
  • 集群配置文件

    由Redis创建维护,不需要我们关心内容,只需要配好位置即可

    cluster-config-file nodes-6379.conf 
  • 节点超时时间

    集群模式下,master节点之间会互相发送PING心跳来检测集群master节点的存活状态,超过配置的时间没有得到响应,则认为该master节点主观宕机。

    cluster-node-timeout 15000 
  • 设置副本有效因子

    副本数据太老旧就不会被选为故障转移的启动者。

    副本没有简单的方法可以准确测量其“数据年龄”,因此需要执行以下两项检查:

    • 如果有多个复制副本能够进行故障切换,则它们会交换消息,以便尝试为具有最佳复制偏移量的副本提供优势(已经从master接收了尽可能多的数据的节点更可能成为新master)。复制副本将尝试按偏移量获取其排名,并在故障切换开始时应用与其排名成比例的延迟(排名越靠前的越早开始故障迁移)。
    • 每个副本都会计算最后一次与其主副本交互的时间。这可以是最后一次收到的PING或命令(如果主机仍处于“已连接”状态),也可以是与主机断开连接后经过的时间(如果复制链路当前已关闭)。如果最后一次交互太旧,复制副本根本不会尝试故障切换。

    第二点的值可以由用户调整。特别的,如果自上次与master交互以来,经过的时间大于(node-timeout * cluster-replica-validity-factor) + repl-ping-replica-period,则不会成为新的master。

    较大的cluster-replica-validity-factor可能允许数据太旧的副本故障切换到主副本,而太小的值可能会阻止群集选择副本。

    为了获得最大可用性,可以将cluster-replica-validity-factor设置为0,这意味着,无论副本上次与主机交互的时间是什么,副本都将始终尝试故障切换主机。(不过,他们总是会尝试应用与其偏移等级成比例的延迟)。

    0是唯一能够保证当所有分区恢复时,集群始终能够继续的值(保证集群的可用性)。

    cluster-replica-validity-factor 10 
  • 设置master故障转移时保留的最少副本数

    群集某个master的slave可以迁移到孤立的master,即没有工作slave的master。这提高了集群抵御故障的能力,因为如果孤立master没有工作slave,则在发生故障时无法对其进行故障转移。

    只有在slave的旧master的其他工作slave的数量至少为给定数量时,slave才会迁移到孤立的master。这个数字就是cluster-migration-barrier。值为1意味着slave只有在其master至少有一个其他工作的slave时才会迁移,以此类推。它通常反映集群中每个主机所需的副本数量。

    默认值为1(仅当副本的主副本至少保留一个副本时,副本才会迁移)。要禁用迁移,只需将其设置为非常大的值。可以设置值0,但仅对调试有用,并且在生产中很危险。

    cluster-migration-barrier 1 
  • 哈希槽全覆盖检查

    默认情况下,如果Redis群集节点检测到至少有一个未覆盖的哈希槽(没有可用的节点为其提供服务),它们将停止接受查询。这样,如果集群部分关闭(例如,一系列哈希槽不再被覆盖),那么所有集群最终都将不可用。一旦所有插槽再次被覆盖,它就会自动返回可用状态。

    然而,有时您希望正在工作的集群的子集继续接受对仍然覆盖的密钥空间部分的查询。为此,只需将cluster-require-full-coverage选项设置为no。

    cluster-require-full-coverage yes 
  • 是否自动故障转移

    当设置为“yes”时,此选项可防止副本在主机故障期间尝试故障切换master。但是,如果被迫这样做,主机仍然可以执行手动故障切换。

    这在不同的场景中很有用,尤其是在多个数据中心运营的情况下,如果不在DC(DataCenter?)完全故障的情况下,我们希望其中一方永远不会升级为master。

    cluster-replica-no-failover no 
  • 集群失败时允许节点处理读请求

    此选项设置为“yes”时,允许节点在集群处于关闭状态时提供读取流量,只要它认为自己拥有这些插槽。

    这对两种情况很有用。第一种情况适用于在节点故障或网络分区期间应用程序不需要数据一致性的情况。其中一个例子是缓存,只要节点拥有它应该能够为其提供服务的数据。

    第二个用例适用于不满足三个分片集群,但又希望启用群集模式并在以后扩展的配置。不设置该选项而使用1或2分片配置中的master中断服务会导致整个集群的读/写服务中断。如果设置此选项,则只会发生写中断。如果达不到master的quorum(客观宕机)数值,插槽所有权将不会自动更改。

    cluster-allow-reads-when-down no 

CLUSTER DOCKER/NAT support

  • 声明访问IP、port

    以下三项设置对NAT网络或者Docker的支持。

    因为NAT端口映射的IP地址在局域网之外是没办法访问到的,因此在这种情况下,要声明集群的公网网关(NAT映射)/宿主机的IP地址,以便局域网之外也可以访问到NAT映射后的/Docker容器内的Redis集群中的每个实例。

    cluster-announce-bus-port集群节点之间进行数据交换的额外端口。

    cluster-announce-ip cluster-announce-port cluster-announce-bus-port 

SLOW LOG 慢日志

Redis的慢查询日志功能用于记录执行时间超过给定时长的命令请求,用户可以通过这个功能产生的日志来监视和优化查询速度

  • 设置慢日志记录阈值

    超过这个值的命令会被记录到慢日志中,默认10000微秒。

    slowlog-log-slower-than <microseconds> 
  • 慢日志文件大小

    可以通过这个配置改变慢日志文件的最大长度,超过这个长度后最旧的记录会被删除。默认128。

    slowlog-max-len 128 

LATENCY MONITOR 延迟监控

Redis延迟监控子系统在运行时对不同的操作进行采样,以收集与Redis实例可能的延迟源相关的数据。

通过延迟命令,用户可以打印图表和获取报告。

系统仅记录在等于或大于通过延迟监视器阈值配置指令指定的毫秒数的时间内执行的操作。当其值设置为零时,延迟监视器将关闭。

默认情况下,延迟监控是禁用的,因为如果没有延迟问题,通常不需要延迟监控,而且收集数据会对性能产生影响,虽然影响很小,但可以在大负载下进行测量。如果需要,可以在运行时使用命令CONFIG SET latency-monitor-threshold
轻松启用延迟监控。

  • 设置延迟阈值
    latency-monitor-threshold 0 

EVENT NOTIFICATION 事件通知

Redis keyspace notifications

实时的监控keys和values的更改。

Redis可以将key space中发生的事件通过发布/订阅通知客户端。

例如,如果notify-keyspace-events已经启用,并且客户端对数据库0中存储的键foo执行DEL操作,则将通过Pub/Sub发布两条消息:

  • PUBLISH _keyspace@0_:foo del
  • PUBLISH _keyevent@0_:del foo

可以在一组类中选择Redis将通知的事件。每个类由一个字符标识:

  • K Keyspace事件,通过__keyspace@

    __
    前缀发布。
  • E Keyevent事件,通过__keyevent@

    __
    前缀发布。
  • g 通用命令(非特定类型),例如DELEXPIRERENAME
  • $ String相关命令
  • l List相关命令
  • s Set相关命令
  • h Hash相关命令
  • z Sorted Set(ZSet)相关命令
  • x 过期事件(每次key过期时生成的事件)
  • e 回收事件(达到maxmemory时回收key的事件)
  • t Stream相关命令
  • m Key-miss events,访问的key不存在时触发
  • A g$lshzxet的别名,因此AKE代表了除了m之外的所有事件。

默认情况下所有事件通知都是关闭的,因为大多数用户不需要这些特性。且需要至少有K或者E时事件通知才会生效。

notify-keyspace-events "" 

GOPHER SERVER Gopher协议

开启Gopher协议,大体意思就是说这是一个90年代很流行的Web协议,客户端和服务端实现都非常简单,Redis服务器只需要100行代码就能支持它。一些人想要一个更简单的互联网,另一些人认为主流互联网变得过于受控,为想要一点新鲜空气的人创造一个替代空间是很酷的。总之,为了庆祝?Redis诞生10周年,Redis的作者将这个协议支持作为礼物?送给了Redis。

# Redis contains an implementation of the Gopher protocol, as specified in # the RFC 1436 (https://www.ietf.org/rfc/rfc1436.txt). # # The Gopher protocol was very popular in the late '90s. It is an alternative # to the web, and the implementation both server and client side is so simple # that the Redis server has just 100 lines of code in order to implement this # support. # # What do you do with Gopher nowadays? Well Gopher never *really* died, and # lately there is a movement in order for the Gopher more hierarchical content # composed of just plain text documents to be resurrected. Some want a simpler # internet, others believe that the mainstream internet became too much # controlled, and it's cool to create an alternative space for people that # want a bit of fresh air. # # Anyway for the 10nth birthday of the Redis, we gave it the Gopher protocol # as a gift. # # --- HOW IT WORKS? --- # # The Redis Gopher support uses the inline protocol of Redis, and specifically # two kind of inline requests that were anyway illegal: an empty request # or any request that starts with "/" (there are no Redis commands starting # with such a slash). Normal RESP2/RESP3 requests are completely out of the # path of the Gopher protocol implementation and are served as usual as well. # # If you open a connection to Redis when Gopher is enabled and send it # a string like "/foo", if there is a key named "/foo" it is served via the # Gopher protocol. # # In order to create a real Gopher "hole" (the name of a Gopher site in Gopher # talking), you likely need a script like the following: # # https://github.com/antirez/gopher2redis # # --- SECURITY WARNING --- # # If you plan to put Redis on the internet in a publicly accessible address # to server Gopher pages MAKE SURE TO SET A PASSWORD to the instance. # Once a password is set: # # 1. The Gopher server (when enabled, not by default) will still serve # content via Gopher. # 2. However other commands cannot be called before the client will # authenticate. # # So use the 'requirepass' option to protect your instance. # # Note that Gopher is not currently supported when 'io-threads-do-reads' # is enabled. # # To enable Gopher support, uncomment the following line and set the option # from no (the default) to yes. # # gopher-enabled no 

ADVANCED CONFIG 高级设置

  • 设置Hash底层数据结构由ziplist转为hashtable的阈值

    当Hash类型的keys只包含了少量的实体并且实体的大小没有超过给定的阈值时,Hash底层会使用ziplist来存储数据而不是使用hashtable以节省空间。

    hash-max-ziplist-entries 512 hash-max-ziplist-value 64 

    当一个Hash类型的key包含的实体数量超过了hash-max-ziplist-entries的值或者某个实体的大小超过了hash-max-ziplist-value的值(单位字节),那么底层编码就会升级成hashtable。

  • 设置List底层数据结构quicklist中单个ziplist的大小

    Redis中List数据结构的底层使用的是quicklist的数据结构,本质上是ziplist作为节点串起来的linkedlist。可以通过该项设置来改变每个ziplist的最大大小(ziplist中的fill属性,超过这个值就会开启一个新的ziplist)。总共提供了-5到-1五个选项:

    • -5:最大大小为64Kb,不推荐作为正常情况下的负载
    • -4:最大大小为32Kb,不推荐
    • -3:最大大小为16Kb,大概可能估计好像不是很推荐(原话:probably not recommended)
    • `-2:最大大小为8Kb,good(原话)
    • -1:最大大小为4Kb,good(原话)

    默认值是-2

    list-max-ziplist-size -2 
  • 设置压缩List中ziplist为quicklistLZF结构

    大神们觉着ziplist不够zip啊,所以再压缩一下吧。实际上是考虑了这样的场景,即List数据结构两端访问频率比较高,但是中间部分访问频率不是很高的情况,那么使用ziplist存放这部分结构就有点浪费,是不是可以把这部分结构进行压缩(LZF算法压缩)呢?这个选项就是进行这个操作的。有下面几个值:

    • 0:代表不压缩,默认值
    • 1:两端各一个节点不压缩
    • 2:两端各两个节点不压缩
    • ...:依次类推。。。
    list-compress-depth 0 
  • 设置Set底层intset最大entities个数/intset升级为hashtable的阈值

    Set数据结构只有在一种情况下会使用intset来存储:set由能转成10进制且数值在64bit有符号整形数值组成时。下面的配置设置了intset能存储的最大entities数量,超过这个数量会转成hashtable存储。默认512个。

    set-max-intset-entries 512 
  • 设置ZSet底层数据结构由ziplist转为skiplist的阈值

    当超过下面设置的阈值时,ZSet底层存储结构会由ziplist转为skiplist。

    zset-max-ziplist-entries 128 zset-max-ziplist-value 64 
  • 设置HyperLogLog底层稀疏矩阵转为稠密矩阵的阈值

    HyperLogLog当在计数比较小时会使用稀疏矩阵来存储,只有当计数达到阈值时,才会转为稠密矩阵。

    超过16000的值是完全无用的,因为这种情况下使用稠密矩阵更加节省内存。

    建议的值是3000左右,以便在不降低太多PFADD速度的情况下获取空间有效编码的好处,稀疏编码的PFADD的时间复杂度为O(N)。当不考虑CPU占用时而考虑内存占用时,这个值可以升到10000左右。

    hll-sparse-max-bytes 3000 
  • 自定义Stream宏节点大小

    可以通过stream-node-max-bytes选项修改Stream中每个宏节点能够占用的最大内存,或者通过stream-node-max-entries参数指定每个宏节点中可存储条目的最大数量。

    stream-node-max-bytes 4096 stream-node-max-entries 100 
  • 开启Rehash

    Redis将在每100毫秒时使用1毫秒的CPU时间来对redis的hash表进行重新hash,可以降低内存的使用。当你的使用场景中,有非常严格的实时性需要,不能够接受Redis时不时的对请求有2毫秒的延迟的话,把这项配置为no。如果没有这么严格的实时性要求,可以设置为yes,以便能够尽可能快的释放内存。

    activerehashing yes 
  • 客户端输出缓存控制

    客户端输出缓冲区限制可用于强制断开由于某种原因从服务器读取数据速度不够快的客户端(一个常见原因是发布/订阅客户端不能像发布服务器生成消息那样快地使用消息)。

    对于三种不同类型的客户端,克制设置不同的限制:

    • normal:一般客户端包含监控客户端
    • replica:副本客户端(slave)
    • pubsub:客户端至少订阅了一个pubsub通道或模式。

    每个客户端输出缓冲区限制指令语法:

    client-output-buffer-limit <class> <hard limit> <soft limit> <soft seconds> 

    一旦达到
    限制或者达到
    之后又过了
    秒,那么客户端会立即被断开连接。

    例如,如果
    为32兆字节,

    分别为16兆字节,10秒,则如果输出缓冲区的大小达到32兆字节,客户端将立即断开连接,但如果客户端达到16兆字节并连续超过限制10秒,客户端也将断开连接。

    默认情况下,普通客户端不受限制,因为它们不会在没有请求(以推送方式)的情况下接收数据,而是在请求之后接收数据,因此只有异步客户端可能会创建一个场景,其中请求数据的速度比读取数据的速度快。

    相反,pubsub和副本客户端有一个默认限制,因为订阅者和副本以推送方式接收数据。

    硬限制或软限制都可以通过将其设置为零来禁用。

    client-output-buffer-limit normal 0 0 0 client-output-buffer-limit replica 256mb 64mb 60 client-output-buffer-limit pubsub 32mb 8mb 60 
  • 配置客户端query buffer大小

    客户端query buffer大小不能超过该项配置的值。

    每个Client都有一个query buffer(查询缓存区或输入缓存区), 它用于保存客户端的发送命令,redis server从query buffer获取命令并执行。如果程序的Key设计不合理,客户端使用大量的query buffer,这会导致redis server比较危险,很容易达到maxmeory限制,导致缓存数据被清空、数据无法写入和oom.

    https://blog.csdn.net/u0/article/details/

    client-query-buffer-limit 1gb 
  • Redis协议批量请求单个字符串限制

    默认512mb,可以通过下面选项修改

    proto-max-bulk-len 512mb 
  • Redis执行任务频率

    Redis调用一个内部函数来执行许多后台任务,比如在超时时关闭客户端连接,清楚从未被请求过的过期key…

    并非所有任务都已相同的频率执行,但Redis根据指定的hz值检查要执行的任务。

    默认情况下,hz的值为10.提高这个值会让Redis在空闲的时候占用更多的CPU,但同时也会让Redis在有很多keys同时过期时响应更快并且可以更精确的处理超时。

    范围在1到500之间,但是超过100通常不是一个好主意。大多数用户应该使用缺省值10,只有在需要非常低延迟的环境中才应该将值提高到100。

    hz 10 
  • 动态hz配置

    根据客户端连接的数量动态的调整hz的值,当有更多的客户端连接时,会临时以hz设置基准提高该hz的值。默认开启。

    dynamic-hz yes 
  • AOF重写时执行fsync刷盘策略

    当一个子系统重写AOF文件时,如果启用了以下选项,则该文件将每生成32MB的数据进行fsync同步。这对于以更增量的方式将文件提交到磁盘并避免较大的延迟峰值非常有用。

    aof-rewrite-incremental-fsync yes 
  • 保存RDB文件时执行fsync刷盘策略

    当redis保存RDB文件时,如果启用以下选项,则每生成32 MB的数据,文件就会同步一次。这对于以更增量的方式将文件提交到磁盘并避免较大的延迟峰值非常有用。

    rdb-save-incremental-fsync yes 
  • LFU设置

    设置Redis LFU相关。Redis LFU淘汰策略实现有两个可调整参数:lfu-log-factorlfu-decay-time

    lfu-log-factor 10 lfu-decay-time 1 

ACTIVE DEFRAGMENTATION 碎片整理

主动(在线)碎片整理允许Redis服务器压缩内存中数据的少量分配和释放之间的空间(内存碎片),从而回收内存。

碎片化是每个分配器(幸运的是,Jemalloc比较少发生这种情况)和某些工作负载都会发生的自然过程。通常需要重启服务器以降低碎片,或者至少清除所有数据并重新创建。然而,多亏了Oran Agra为Redis 4.0实现的这一功能,这个过程可以在服务器运行时以“hot”的方式在运行时发生(类似热部署的意思,不需要停止服务)。

基本上,当碎片超过某个级别(参见下面的配置选项)时,Redis将通过利用特定的Jemalloc功能(以了解分配是否导致碎片并将其分配到更好的位置)开始在连续内存区域中创建值的新副本,同时释放数据的旧副本。对所有键递增地重复该过程将导致碎片降至正常值。

需要了解的重要事项:

1.默认情况下,此功能被禁用,并且仅当您编译Redis以使用我们随Redis源代码提供的Jemalloc副本时,此功能才有效。这是Linux版本的默认设置。

2.如果没有碎片问题,则无需启用此功能。

3.一旦遇到内存碎片,可以在需要时使用命令CONFIG SET activedefrag yes启用此功能。

配置参数能够微调碎片整理过程的行为。如果你不确定它们是什么意思,最好不要改变默认值。

  • 开启活动碎片整理
    activedefrag no 
  • 启动活动碎片整理的最小内存碎片阈值
    active-defrag-ignore-bytes 100mb 
  • 启动活动碎片整理的最小内存碎片百分比
    active-defrag-threshold-lower 10 
  • 尝试释放的最大百分比
    active-defrag-threshold-upper 100 
  • 最少CPU使用率
    active-defrag-cycle-min 1 
  • 最大CPU使用率
    active-defrag-cycle-max 25 
  • 最大扫描量
    # Maximum number of set/hash/zset/list fields that will be processed from # the main dictionary scan active-defrag-max-scan-fields 1000 
  • 使用后台线程
    jemalloc-bg-thread yes 
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/228143.html原文链接:https://javaforall.net

(0)
上一篇 2026年3月16日 下午7:43
下一篇 2026年3月16日 下午7:43


相关推荐

  • django服务器_pycharm配置远程服务器解释器

    django服务器_pycharm配置远程服务器解释器可以看到,刚刚新建的test环境右边的[SSHconfiguration]中已经出现了一个服务器地址名。pycharm工具栏中的[Tools]-[StartSSHSession],如下图。这里弹出来的框就是要选择使用服务器的文件了,几个路径要搞明白。……

    2025年6月1日
    3
  • Web Service进阶(一)运行原理[通俗易懂]

    Web Service进阶(一)运行原理[通俗易懂]利用清明小假期,温习了一遍WebService的相关内容,对其工作原理进行了简要总结。以供有需求的朋友和自己日后参考。文章若有不当之处,敬请朋友们提出宝贵建议,以求共勉。Web服务中,我们应该首先了解相关的术语含义:WSDL、UDDI….相关术语方面的介绍在此不再赘述,重点放在原理上。在Web服务中,存在三个角色:服务提供者、服务请求者和服务中介,三者之间的关系如图1…

    2022年7月24日
    15
  • kmeans聚类算法及matlab实现

    kmeans聚类算法及matlab实现kmeans 聚类算法介绍 kmeans 算法是一种经典的无监督机器学习算法 名列数据挖掘十大算法之一 作为一个非常好用的聚类算法 kmeans 的思想和实现都比较简单 kmeans 的主要思想 把数据划分到各个区域 簇 使得数据与区域中心的距离之和最小 换个角度来说 kmeans 算法把数据量化为聚类中心 其目标函数就是使量化过程中损失的 信息 最少 kmeans 算法求解目标函数的过程也可以看做是 EM E

    2026年3月17日
    2
  • 利用其它widthStep方法把interest_img的所有像素值增加1[通俗易懂]

    利用其它widthStep方法把interest_img的所有像素值增加1[通俗易懂]#include”stdafx.h”#include#includeintmain(intargc,char**argv){   IplImage*interest_img;   CvRectinterest_rect;   if(argc==7&&((interest_img=cvLoadImage(argv[1],1))!=

    2022年5月6日
    41
  • 后台 管理 系统

    后台 管理 系统课程/视频管理系统:https://item.taobao.com/item.htm?spm=a2oq0.12575281.0.0.50111deb1nO3pa&ft=t&id=643539140484教务管理系统:https://item.taobao.com/item.htm?spm=a2oq0.12575281.0.0.50111deb1nO3pa&ft=t&id=643539140484成绩管理系统:https://item.taobao.com/item.h

    2022年4月25日
    43
  • 括号匹配算法「建议收藏」

    概述​括号匹配在很多字符串处理的场景中时常被用到,诸如各大IDE括号不匹配的错误提示,编译器编译时检查应该成对出现的括号是否符合要求等,在这里我们就直接使用一种比较常规,但效率不差的方法去解决括号匹配的问题就行了。栈方法匹配问题​为了方便描述,对于需要做匹配的两个符号,比如’(‘和’)’,前者可称为左侧符号,后者可称为右侧符号。在做符号匹配时,如果以左侧符号

    2022年4月13日
    65

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号