1. redis核心数据结构实战与高性能原理剖析

编程入门 行业动态 更新时间:2024-10-15 00:24:23

1. redis核心<a href=https://www.elefans.com/category/jswz/34/1769880.html style=数据结构实战与高性能原理剖析"/>

1. redis核心数据结构实战与高性能原理剖析

分布式缓存技术Redis

  • 1. Redis的五种数据结构
    • 1.1 String
    • 1.2 hash
    • 1.3 列表list
    • 1.4 set
    • 1.5 ZSet
  • 2. Redis的单线程和高性能
  • 3. 其他高级命令
    • 3.1 scan:渐进式遍历键

本文是按照自己的理解进行笔记总结,如有不正确的地方,还望大佬多多指点纠正,勿喷。

课程内容:

1、Redis核心数据结构精讲

2、微博与微信消息流Redis实现

3、微信点赞、收藏与标签基于Redis实现

4、微博与微信朋友关注模型基于Redis实现

5、电商购物车如何用Redis实现

6、电商推荐系统如何用Redis实现

7、Redis高性能核心原理剖析、Redis 6.0多线程模型初探

redis安装步骤:

1. Redis的五种数据结构

五种数据结构:

1.1 String

可以直接去官方文档查看使用方法,也可以使用命令行查看帮助help @String

1. 字符串常用操作:

set key value存入字符串键值对
mset key value[key value…]批量存储字符串键值对
setnx key value存入一个不存在的字符串键值对
get key获取一个字符串键值
mget key [key…]批量获取字符串键值
del key [key…]删除一个键
expire key seconds设置一个键的过期时间(秒)

2. 原子加减

incr key将key中存储的数字值加1
decr key将key中存储的数字值减1
incrby key increment将key所存储的值加上increment
decrby key decrement将key所存储的值减去decrement

3. 应用场景

  • 单值缓存
    set key value
    get key

  • 对象缓存

    • set user:1 value(json格式数据)
    • mset user:1:name ding user:1:balance 1888
      mget user:1:name user:1:balance
  • 分布式锁

setnx product:10001 true返回1代表获取锁成功
setnx product:10001 true返回0代表获取锁失败
del product:10001执行完业务释放锁
set product:10001 true ex 10 nx防止程序意外终止导致死锁
  • 计数器
    incr article:readcount:{文章id}
    get article:readcount:{文章id}

  • web集群session共享
    spring session + redis实现session共享

  • 分布式系统全局序列号
    incrby orderId 1000 //redis批量生成序列号提升性能
    如果在分库分表中还使用数据库自带的自增id肯定是不可以的,就可以使用这个incr orderId,但是如果直接没生成一个订单,自增一个id,这对redis性能压力太大了。我们可以一次性多拿些id,incrby orderId 1000这样,拿到本机内存里面,在本机内存里面一个一个去加一,加到1000之后我再去获取。
    这里面可能会有一个小问题,第一台id当我内存加到500M,我的机器挂了怎么办呢?确实存在这种情况哈,那这不就浪费一定的id了吗?没有关系哈,大多数情况下是没有关系的,id很多,把这个步长设置的小一点,其实浪费几百个id其实关系不大。

1.2 hash

hash结构相当于一个双层的map结构(key,(key,value))

1. hash的常用操作

HSET key field value存储一个哈希表key的键值
HSETNX key field value存储一个不存在的哈希表key的键值
HMSET key field value [field value …]在一个哈希表key中存储多个键值对
HGET key field获取哈希表key对应的field键值
HMGET key field [field …]批量获取哈希表key中多个field键值
HDEL key field [field …]删除哈希表key中的field键值
HLEN key返回哈希表key中field的数量
HGETALL key返回哈希表key中所有的键值
HINCRBY key field increment为哈希表key中field键的值加上增量increment

2. 对象缓存

HMSET user {userld}:name ding {userld}:balance 1888
HMSET user 1:name ding 1:balance 1888
HMGET user 1:name 1:balance

假设我一张user用户表可能有上万千条数据,甚至上亿,还能存在这种hash结构里面吗?
是不是不太合适啊。redis里面最怕的一个就是bigkey,大key的操作会阻塞redis,如果一条命令执行的太长,其他的命令都会被阻塞住。这样就会影响redis的并发。

3. Hash的应用场景

  • 电商购物车
    1)以用户id为key
    2)商品id为field
    3)商品数量为value

  • 购物车操作
    1)添加商品→hset cart:1001 10088 1
    2)增加数量→hincrby cart:1001 10088 1
    3)商品总数→hlen cart:1001
    4)删除商品→hdel cart:1001 10088
    5)获取购物车所有商品→hgetall cart:1001

4. Hash结构优缺点

  • 优点
    1)同类数据归类整合储存,方便数据管理
    2)相比string操作消耗内存与cpu更小
    3)相比string储存更节省空间

  • 缺点
    1)过期功能不能使用在field上,只能用在key上
    2)Redis集群架构下不适合大规模使用

5. redis集群架构(在这块是补充知识哈)

比如微博哈,他有几百T的数据肯定不是放到一个redis里面的。redis一般撑死分配10来个G的样子。对于集群来说就是把数据分片,拆成一份一份的。

1.3 列表list

1. List常用操作

LPUSH key value [value …]将一个或多个值value插入到key列表的表头(最左边)
RPUSH key value [value …]将一个或多个值value插入到key列表的表尾(最右边)
LPOP key移除并返回key列表的头元素
RPOP key移除并返回key列表的尾元素
LRANGE key start stop返回列表key中指定区间内的元素,区间以偏移量start和stop指定
BLPOP key [key …] timeout从key列表表头弹出一个元素,若列表中没有元素,阻塞等待timeout秒,如果timeout=0,一直阻塞等待
BRPOP key [key …] timeout从key列表表尾弹出一个元素,若列表中没有元素,阻塞等待timeout秒,如果timeout=0,一直阻塞等待

2. List的应用场景

  • 常用数据结构
    Stack(栈)= LPUSH + LPOP = FILO

    Queue(队列)= LPUSH + RPOP
    Blocking MQ(阻塞队列)= LPUSH + BRPOP

  • 微博和微信公号消息流


    带有时间线的消息流,是按照时间线排序的消息流。

  • 微博消息和微信公号消息
    我关注了邓超,孙俪等大V

  1. 邓超发微博,消息ID为10018
    LPUSH msg:{我-ID}10018
    2)孙俪发微博,消息ID为10086
    LPUSH msg:{我-ID} 10086
    3)查看最新微博消息
    LRANGE msg:{我-ID}0 4
    通过lrange查询到的消息是按照时间顺序排好序的。
    如果邓超的粉丝只有几百个上千个粉丝,意味着他发一条消息就要往这几百个或者上千个粉丝里面发消息。这种方式是可以的。假如有5000个,在发消息的时候可以有优化。我其实是可以分批发的,首先给那些在线的人先发,其他的在后台就给他们慢慢发了。
    那是邓超的粉丝实际上是有很多很多的,那怎么办呢?还是分批吗?没用的,他的粉丝那么多,在线的人肯定都特别的多。成本还是很高的,可以使用pull模式,就是我只发一份,你们上线了就从这个里面自己去拿。
    pull和push有什么区别?还有没有更好的优化策略?
    如果我关注了很多大V,每个大V都有自己的消息队列,那上线的时候就要拉去很多大V的消息,拉到本机还要排序,相对来说回避分批的那种小V要麻烦一点。

1.4 set

1. Set常用操作

SADD key member [member …]往集合key中存入元素,元素存在则忽略,若key不存在则新建
SREM key member [member …]从集合key中删除元素
SMEMBERS key获取集合key中所有元素
SCARD key获取集合key的元素个数
SISMEMBER key member判断member元素是否存在于集合key中
SRANDMEMBER key [count]从集合key中选出count个元素,元素不从key中删除
SPOP key [count]从集合key中选出count个元素,元素从key中删除

2. Set运算操作

SINTER key [key …]交集运算
SINTERSTORE destination key [key …]将交集结果存入新集合destination中
SUNION key [key …]并集运算
SUNIONSTORE destination key [key …]将并集结果存入新集合destination中
SDIFF key [key …]差集运算
SDIFFSTORE destination key [key …]将差集结果存入新集合destination中

3. set 应用场景

  • 微信抽奖小程序
    1)点击参与抽奖加入集合
    SADD key {userlD}
    2)查看参与抽奖所有用户
    SMEMBERS key
    3)抽取count名中奖者
    SRANDMEMBER key [count]/ SPOP key [count]


    上面这个抽奖完之后集合里面还是不变的,但是如果我们先抽三等奖、再抽二等奖、再抽一等奖,那就需要把奖抽完之后删除该名字。

  • 微信微博点赞、收藏、标签
    1)点赞
    SADD like:消息ID}{用户ID}
    2)取消点赞
    SREM like:{消息ID}{用户ID}
    3)检查用户是否点过赞
    SISMEMBER like:{消息ID}{用户ID}
    4)获取点赞的用户列表
    SMEMBERS like:消息ID}
    5)获取点赞用户数
    SCARD like:{消息ID}

  • 集合操作
    SINTER set1 set2 set3→{c}
    SUNION set1 set2 set3→{ a,b,c,d,e }
    SDIFF set1 set2 set3→{ a }
    第三行的意思是:set1减去set2与set3的交集

  • 集合操作实现微博微信关注模型
    1)诸葛老师关注的人:
    zhugeSet-> {guojia, xushu}
    2)杨过老师关注的人: yangguoSet–> {zhuge, baiqi,guojia, xushu}
    3)郭嘉老师关注的人: guojiaSet-> {zhuge, yangguo, baiqi, xushu, xunyu)
    4)我和杨过老师共同关注: SINTER zhugeSet yangguo2e-g
    5)我关注的人也关注他(杨过老师): SISMEMBER guojiaSet yangguoSISMEMBER xushuSet yangguo
    6)我可能认识的人: SDIFF yangguoSet zhugeSet->(zhuge,baiqi}

  • 集合操作实现电商商品筛选
    SADD brand:huawei P40
    SADD brand:xiaomi mi-10
    SADD brand:iPhone iphone12
    SADD os:android P40 mi-10
    SADD cpu:brand:intel P40 mi-10
    SADD ram:8G P40 mi-10 iphone12
    SINTER os:android cpu:brand:intel ram:8G →{P40,mi-10}

1.5 ZSet

1. ZSet常用操作

ZADD key score member [[score member]…]往有序集合key中加入带分值元素
ZREM key member [member …]从有序集合key中删除元素
zSCORE key member返回有序集合key中元素member的分值
ZINCRBY key increment member为有序集合key中元素member的分值加上increment
ZCARD key返回有序集合key中元素个数
ZRANGE key start stop [WITHSCORES]正序获取有序集合key从start下标到stop下标的元素
ZREVRANGE key start stop [WITHSCORES]倒序获取有序集合key从start下标到stop下标的元素

2. ZSet集合操作

ZUNIONSTORE destkey numkevs key [key…]//并集计算
ZINTERSTORE destkey numkeys key [key …]//交集计算

3. 应用场景

  • ZSet集合操作实现排行榜
    1)点击新闻
    ZINCRBY hotNews:20190819 1守护香港
    2)展示当日排行前十
    ZREVRANGE hotNews:20190819 0 9 WITHSCORES
    3)七日搜索榜单计算
    ZUNIONSTORE hotNews:20190813-20190819 7
    hotNews:20190813 hotNews:20190814… hotNews:20190819
    4)展示七日排行前十
    ZREVRANGE hotNews:20190813-20190819 0 9 WITHSCORES

2. Redis的单线程和高性能

Redis是单线程吗?

Redis的单线程主要是指Redis的网络IO和键值对读写是由一个线程来完成的,这也是Redis对外提供键值存储服务的主要流程。但Redis的其他功能,比如持久化、异步删除、集群数据同步等,其实是由额外的线程执行的。

Redis 单线程为什么还能这么快?

因为它所有的数据都在内存中,所有的运算都是内存级别的运算,而且单线程避免了多线程的切换性能损耗问题。正因为Redis是单线程,所以要小心使用Redis 指令,对于那些耗时的指令(比如keys),一定要谨慎使用,一不小心就可能会导致Redis 卡顿。

Redis单线程如何出路那么多的并发客户端连接?

Redis的IO多路复用: redis利用epoll来实现IO多路复用,将连接信息和事件放到队列中,依次放到文件事件分派器,事件分派器将事件分发给事件处理器。

#查看redis支持的最大连接数,在redis.conf文件中可修改,# maxclients 10000
127.0.0.1:6379> CONFIG GET maxclients##1)"maxclients"##2))"10000"

3. 其他高级命令

keys:全量遍历键,用来列出所有满足特定正则字符串规则的key,当redis数据量比较大时,性能比较差,要避免使用

127.0.0.1:6379> set codehole1 a
OK
127.0.0.1:6379> set codehole2 b
OK
127.0.0.1:6379> set codehole3 c
OK
127.0.0.1:6379> set code1hole a
OK
127.0.0.1:6379> set code2hole b
OK
127.0.0.1:6379> set code3hole b
OK
127.0.0.1:6379> keys*
1) "codehole1"
2) "codehole3"
3) "codehole2"
127.0.0.1:6379> keys code*hole
1) "code3hole"
2) "code2hole"
3) "code1hole"

3.1 scan:渐进式遍历键

SCAN cursor [MATCH pattern] [CoUNT count]

scan参数提供了三个参数,第一个是cursor整数值(hash桶的索引值),第二个是key 的正则模式,第三个是一次遍历的key的数量(参考值,底层遍历的数量不一定),并不是符合条件的结果数量。第一次遍历时,cursor值为0,然后将返回结果中第一个整数值作为下一次遍历的cursor。一直遍历到返回的cursor值为0时结束。

注意:但是scan并非完美无瑕,如果在scan的过程中如果有键的变化(增加、删除、修改),那么遍历效果可能会碰到如下问题:新增的键可能没有遍历到,遍历出了重复的键等情况,也就是说scan并不能保证完整的遍历出来所有的键,这些是我们在开发时需要考虑的。

127.0.0.1:6379> scan 0 match key99* count 1000
1)“13976"(这个是下一次要扫描的游标,这个游标一直到0才结束)
2) 1) “key9911”
2)“key9974”
3 )“key9994”
4) “key9910”
5)“key9907”
6)“key9989”
7 )“key9971”

注意:但是scan并非完美无瑕, 如果在scan的过程中如果有键的变化(增加、 删除、 修改) ,那 么遍历效果可能会碰到如下问题: 新增的键可能没有遍历到, 遍历出了重复的键等情况, 也就是说 scan并不能保证完整的遍历出来所有的键, 这些是我们在开发时需要考虑的

Info:查看redis服务运行信息,分为 9 大块,每个块都有非常多的参数,这 9 个块分别是:

Server服务器运行的环境参数
Clients客户端相关信息
Memory服务器运行内存统计数据
Persistence持久化信息
Stats通用统计数据
Replication主从复制相关信息
CPUCPU 使用情况
Cluster集群信息
KeySpace键值对统计数量信息

connected_clients:2 # 正在连接的客户端数量
instantaneous_ops_per_sec:789 # 每秒执行多少次指令
used_memory:929864 # Redis分配的内存总量(byte),包含redis进程内部的开销和数据占用的内存
used_memory_human:908.07K # Redis分配的内存总量(Kb,human会展示出单位)
used_memory_rss_human:2.28M # 向操作系统申请的内存大小(Mb)(这个值一般是大于used_memo
y的,因为Redis的内存分配策略会产生内存碎片)
used_memory_peak:929864 # redis的内存消耗峰值(byte)
used_memory_peak_human:908.07K # redis的内存消耗峰值(KB)
maxmemory:0 # 配置中设置的最大可使用内存值(byte),默认0,不限制
maxmemory_human:0B # 配置中设置的最大可使用内存值
maxmemory_policy:noeviction # 当达到maxmemory时的淘汰策略
127.0.0.1:6379> info
# Server
redis_version:5.0.3
redis_git_sha1:00000000
redis_git_dirty:0
redis_build_id:bec1b87bfb6bd040
redis_mode:standalone
os:Linux 3.10.0-1160.90.1.el7.x86_64 x86_64
arch_bits:64
multiplexing_api:epoll
atomicvar_api:atomic-builtin
gcc_version:4.8.5
process_id:9665
run_id:e2509cd36ff2ba601c31d05237d5cc741aa8deb7
tcp_port:6379
uptime_in_seconds:39699
uptime_in_days:0
hz:10
configured_hz:10
lru_clock:8597002
executable:/usr/local/redis-5.0.3/src/redis-server
config_file:/usr/local/redis-5.0.3/redis.conf# Clients
connected_clients:2
client_recent_max_input_buffer:2
client_recent_max_output_buffer:0
blocked_clients:0# Memory
used_memory:875256
used_memory_human:854.74K
used_memory_rss:10788864
used_memory_rss_human:10.29M
used_memory_peak:3905168
used_memory_peak_human:3.72M
used_memory_peak_perc:22.41%
used_memory_overhead:858808
used_memory_startup:792048
used_memory_dataset:16448
used_memory_dataset_perc:19.77%
allocator_allocated:1278976
allocator_active:1540096
allocator_resident:8687616
total_system_memory:3408482304
total_system_memory_human:3.17G
used_memory_lua:37888
used_memory_lua_human:37.00K
used_memory_scripts:0
used_memory_scripts_human:0B
number_of_cached_scripts:0
maxmemory:0
maxmemory_human:0B
maxmemory_policy:noeviction
allocator_frag_ratio:1.20
allocator_frag_bytes:261120
allocator_rss_ratio:5.64
allocator_rss_bytes:7147520
rss_overhead_ratio:1.24
rss_overhead_bytes:2101248
mem_fragmentation_ratio:12.95
mem_fragmentation_bytes:9955856
mem_not_counted_for_evict:0
mem_replication_backlog:0
mem_clients_slaves:0
mem_clients_normal:66616
mem_aof_buffer:0
mem_allocator:jemalloc-5.1.0
active_defrag_running:0
lazyfree_pending_objects:0# Persistence
loading:0
rdb_changes_since_last_save:0
rdb_bgsave_in_progress:0
rdb_last_save_time:1686286355
rdb_last_bgsave_status:ok
rdb_last_bgsave_time_sec:0
rdb_current_bgsave_time_sec:-1
rdb_last_cow_size:4300800
aof_enabled:0
aof_rewrite_in_progress:0
aof_rewrite_scheduled:0
aof_last_rewrite_time_sec:-1
aof_current_rewrite_time_sec:-1
aof_last_bgrewrite_status:ok
aof_last_write_status:ok
aof_last_cow_size:0# Stats
total_connections_received:52
total_commands_processed:20
instantaneous_ops_per_sec:0
total_net_input_bytes:1300673
total_net_output_bytes:5023316
instantaneous_input_kbps:0.00
instantaneous_output_kbps:0.00
rejected_connections:0
sync_full:0
sync_partial_ok:0
sync_partial_err:0
expired_keys:0
expired_stale_perc:0.00
expired_time_cap_reached_count:0
evicted_keys:0
keyspace_hits:6
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:828
migrate_cached_sockets:0
slave_expires_tracked_keys:0
active_defrag_hits:0
active_defrag_misses:0
active_defrag_key_hits:0
active_defrag_key_misses:0# Replication
role:master
connected_slaves:0
master_replid:d60f3d528bece5a6d38c1d5e1f38ab6f7c098b67
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0# CPU
used_cpu_sys:22.465098
used_cpu_user:13.196395
used_cpu_sys_children:0.008807
used_cpu_user_children:0.000000# Cluster
cluster_enabled:0# Keyspace
db0:keys=2,expires=0,avg_ttl=0

更多推荐

1. redis核心数据结构实战与高性能原理剖析

本文发布于:2024-03-15 01:33:13,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1737816.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:数据结构   高性能   实战   原理   核心

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!