2021-3-20 狂神说java之 redis学习

Nosql概述

Nosql = not only sql (不仅仅是SQL) 泛指非关系型数据库
关系型数据库:表格,行,列

很多的数据类型用户的个人信息,社交网络,地理位置。这些数据类型的存储不需要一个固定的格式。不需要过多的操作就可以横向扩展。类似于Map<String,Object>

Nosql 特点

1、方便扩展(数据之间没有关系)
2、大数据量高性能(redis一秒写8万次,读取11万,Nosql的缓存是记录级的,是一种细粒度缓存,性能会比较高)
3、数据类型是多样型的(不需要事先设计数据库,随取随用,如果数据库量十分大的表,很多人就无法设计了)

传统的关系型数据库(RDBMS)和 NoSQL的区别

传统RDBMS

  • 结构化组织(表,列)
  • Sql
  • 数据和关系都存在单独的表中 row col
  • 数据操作语言,数据定义语言
  • 严格的一致性
  • 基础的事务
  • ·····
    Nosql
  • 不仅仅是数据
  • 没有固定的查询语言
  • 键值对存储,列存储,文档存储,图形数据库(社交关系)
  • 最终一致性
  • CAP 定理 和 BASE 理论(异地多活)
  • 高性能,高可用,高可扩
  • ·····

了解:3V+3高

大数据时代的3v:主要是描述问题的
1、海量 Volume
2、多样 Variety
3、实时 Velocity
大数据时代的3高:主要是对程序的要求
1、高并发
2、高可扩(随时可以水平拆分,机器不够了,可以扩展机器)
3、高性能(保证用户体验和性能)

# 1、商品的基本信息
	名称、价格、商家信息:
	关系型数据库就可以解决 MySQL 、Oracle  推荐文章:阿里云的这群疯子
	(淘宝内部的MySQL不是大家用的MySQL)
# 2、商品的描述、评论(文字比较多)
	文档型数据库中:MongoDB
# 3、图片
	分布式文件系统    FastDFS
	- 淘宝自己的      TFS
	- Gooale 的       GFS
	- Hadoop (大数据) HDFS
	- 阿里云的        OSS
# 4、商品的关键字(搜索)
	- 搜索引擎 Solr  elasticsearch
	- 淘宝 ISerach:  多隆(多去了解一下这些技术大佬)
# 5、商品热门的波段信息
	- 内存数据库
	- redis Tair memache...
# 6、商品的交易,外部的支付接口
	- 三方应用

NoSQL的四大分类

KV键值对:

  • 新浪:redis
  • 美团:redis+tair
  • 阿里、百度:redis+memecache
    文档型数据库(bson格式和json一样)
  • mongodb(一般必须要掌握):
    - mongodb是一个基于分布式文件存储的数据库,c++编写,主要用来处理大量文档
    - mongodb介于关系型数据库和非关系型数据库中中间的产品,是非关系型数据库中功能最丰富,最像关系型数据库的
  • ConthDB
    列存储数据库
  • HBase
  • 分布式文件系统
    图关系数据库
  • 不是存图形,放的是关系:朋友圈社交网络,广告推荐
  • Neo4j infoGrid
    在这里插入图片描述

四者之间的对比
在这里插入图片描述

Redis入门

概述

Redis(R emote D ictionary S erver),远程字典服务

redis 能干吗

1、内存存储、持久化,内存中是断电即失,所以说持久化很重要(rdb\aof)
2、效率高,可以用于高速缓存
3、发布订阅系统
4、地图信息分析
5、计时器、计数器(浏览量)
6、····

特性

1、多样的数据类型
2、持久化
3、集群
4、事务

学习中需要用得到的东西

1、官网:https://redis.io/
2、中文网:http://www.redis.cn/

Windows安装

1、下载安装包:https://github.com/tporadowski/redis/releases
2、下载完毕得到压缩包:
在这里插入图片描述
3、解压到自己的电脑上的环境目录下
在这里插入图片描述
4、开启redis,双击redis-server.exe运行服务
5、使用redis客户端来链接redis 点击redis-cli.exe
在这里插入图片描述
但redis推荐使用Linux去开发使用

Linux安装

1、下载安装包
2、解压redis的安装包 程序 一般放到/opt目录下

mv redis-5.0.8.tar.gz /opt
# 解压
tag -zxvf redis-5.0.8.tar.gz

在这里插入图片描述在这里插入图片描述
3、进入解压后的文件,可以看到redis的配置文件
在这里插入图片描述
4、基本的环境安装

yum install gcc-c++

在这里插入图片描述
在这里插入图片描述

#执行make命令  完毕之后就可以了
make
# 完毕之后再make一下
make

在这里插入图片描述

make install

在这里插入图片描述
5、redis 的默认安装路径 usr/local/bin
在这里插入图片描述
6、将redis配置文件,复制到当前目录下

# 创建目录kconfig
mkdir kconfig
# 拷贝配置文件
cp /opt/redis-5.0.8/redis.conf kconfig
cd kconfig
ls

在这里插入图片描述
7、redis默认不是后台启动的,修改配置文件

vim redis.conf

按i 进行编辑 -->修改daemonize 为 yes ->退出(esc :wq)
在这里插入图片描述
8、启动redis服务

# 回到上级目录
cd ..
ls
# 在/usr/local/bin 目录下
pwd

# 运行
redis-server kconfig/redis.conf

在这里插入图片描述
9、使用redis客户端进行连接

# 使用redis客户端进行连接
redis-cli -p 6379
# 测试连接
ping

在这里插入图片描述
10、查看redis的进程是否开启

ps -ef|grep redis

在这里插入图片描述
11、如何关闭redis服务

shutdown
exit

在这里插入图片描述
12、再次查看redis的进程是否开启

在这里插入图片描述

测试性能

redis-benchmark 压力测试工具:官方自带的性能测试工具
Redis 性能测试https://www.runoob.com/redis/redis-benchmarks.html

# 测试:100个并发连接 10000请求
redis-benchmark -h localhost -p 6379 -c 100 -n 10000

在这里插入图片描述
======set ======

  • 对我们的10万个请求进行写入测试
  • 100个并发客户端
  • 每次写入3个字节
  • 只有一台服务器来处理这些请求,单机性能

所有请求在3毫秒处理完成
每秒处理59382.42次请求在这里插入图片描述

基础知识

redis 默认有16个数据库(默认使用的是第0个)
在这里插入图片描述

#select进行切换数据库   
select 3
# DBSIZE 查看db大小
DBSIZE 

在这里插入图片描述

# 查看数据库所有的key
keys *
# 清空全部数据库
flushall
# 清空当前数据库
flushdb

redis是单线程的

明白redis是很快的,官方表示,redis是基于内存操作,cpu不是redis性能瓶颈,redis的瓶颈是根据机器的内存和网络带宽,既然可以使用单线程来实现,就使用单线程了!所以就使用了单线程

redis是C语言写的,官方提供的数据为100000+的QPS,完全不比同样使用key-value的memecache差

redis为什么单线程这么快?

1、误区1:高性能的服务器一定是多线程的(不一定)
2、误区2:多线程(CPU上下文会切换)一定比单线程效率高(不一定)
速度:cpu>内存>硬盘
核心: redis是将所有的数据全部放在内存中,所以使用单线程去操作效率就是最高的,多线程(CPU上下文会切换:耗时是最高的),对于内存系统来说,如果没有上下文切换效率就是最高的。多次读写都是在一个cpu上的,在内存情况下,这个就是最佳方案

五大数据类型

官方文档:Redis 是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库缓存消息中间件MQ。 它支持多种类型的数据结构,如 字符串(strings), 散列(hashes), 列表(lists), 集合(sets), 有序集合(sorted sets) 与范围查询, bitmaps, hyperloglogs 和 地理空间(geospatial) 索引半径查询。 Redis 内置了 复制(replication),LUA脚本(Lua scripting), LRU驱动事件(LRU eviction),事务(transactions) 和不同级别的 磁盘持久化(persistence), 并通过 Redis哨兵(Sentinel)和自动 分区(Cluster)提供高可用性(high availability)。

Redis-Key

127.0.0.1:6379> keys *   #查看所有的key
(empty list or set) 
127.0.0.1:6379> set name kuangsheng  #set key
OK
127.0.0.1:6379> get name
"kuangsheng"
127.0.0.1:6379> exists name  # 判断当前key是否存在
(integer) 1
127.0.0.1:6379> exists name2
(integer) 0
127.0.0.1:6379> move name 1 #移除当前key
(integer) 1
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> set name qinjiang
OK
127.0.0.1:6379> keys *
1) "name"
127.0.0.1:6379> get name 
"qinjiang"
127.0.0.1:6379> expire name 10 #设置当前key的过期时间 单位是秒
(integer) 1
127.0.0.1:6379> ttl name  #查看当前key的剩余时间
(integer) 5
127.0.0.1:6379> set name kk  #查看当前key的类型
OK
127.0.0.1:6379> type name
string

命令文档:http://www.redis.cn/commands.html

String(字符串)

127.0.0.1:6379> set key1 v1  	#设置值
OK
127.0.0.1:6379> get key1  		# 获得值
"v1"
127.0.0.1:6379> keys *   		# 获得所有的key
1) "name"
2) "key1"
127.0.0.1:6379> exists key1		# 判断某一个key是否存在
(integer) 1
127.0.0.1:6379> append key1 "hello" # 追加字符串,如果当前key不存在 相当于set
(integer) 7
127.0.0.1:6379> get key1		
"v1hello"
127.0.0.1:6379> strlen key1		# 获取字符串的长度
(integer) 7
############################################################################
# i++
# 步长 i+=
127.0.0.1:6379> set views 0		# 初始浏览量为0  set article:1000:views 0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views 		# 自增1 浏览量为1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views		# 自减1	浏览量-1
(integer) 1
127.0.0.1:6379> get views
"1"
127.0.0.1:6379> incrby views 10	 # 可以设置步长 指定增量
(integer) 11
127.0.0.1:6379> decrby views 5
(integer) 6

############################################################################
# 字符串范围 rang
127.0.0.1:6379> set key1 "hello,kuangshen"  # 设置 key1 的值
OK
127.0.0.1:6379> get key1
"hello,kuangshen"
127.0.0.1:6379> getrange key1 0 3 			# 截取字符串 [0,3]
"hell"
127.0.0.1:6379> getrange key1 0 -1			# 获取全部的字符串,和 get key 是一样的
"hello,kuangshen"
127.0.0.1:6379>

# 替换 replace
127.0.0.1:6379> set key2 abcdefg
OK
127.0.0.1:6379> get key2
"abcdefg"
127.0.0.1:6379> setrange key2 1 xx		# 替换 指定位置开始的字符串
(integer) 7
127.0.0.1:6379> get key2
"axxdefg"

############################################################################
# setex(set with expire) # 设置过期时间
# setnx(set if not exist) # 不存在再设置(在分布式锁中会常常使用)

127.0.0.1:6379> setex key3 30 hello  # 设置key3的值为 hello ,30秒之后过期
OK
127.0.0.1:6379> ttl key3
(integer) 26
127.0.0.1:6379> get key3
"hello"
127.0.0.1:6379> setnx mykey redis	# 如果mykey不存在,创建mykey
(integer) 1
127.0.0.1:6379> keys *
1) "mykey"
2) "key2"
3) "key1"
127.0.0.1:6379> ttl key3
(integer) -2
127.0.0.1:6379> setnx mykey mongodb  # 如果mykey存在,创建失败
(integer) 0
127.0.0.1:6379> get mykey
"redis"

############################################################################
# mset 
# mget

127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3  # 同时设置多个值
OK
127.0.0.1:6379> keys *
1) "k1"
2) "k3"
3) "k2"
127.0.0.1:6379> mget k1 k2 k3			# 同时获取多个值
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 v1 k4 v4		# msetnx是一个原子性的操作(要么一起成功,要么一起失败)
(integer) 0
127.0.0.1:6379> get k4
(nil)

############################################################################
# 对象 
set user:1 {
    
    name:zhangsan,age:3} # 设置一个user:1 对象,值为json字符串来保存一个对象

# 这里的key是一个巧妙的设计 user:{id}:{filed} 如此设计在redis中是完全可以的
127.0.0.1:6379> mset user:1:name zhangshan user:1:age 2
OK
127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangshan"
2) "2"

############################################################################
# getset 先get然后再set

127.0.0.1:6379> getset db redis  # 如果不存在值,则返回nil
(nil)
127.0.0.1:6379> get db
"redis"
127.0.0.1:6379> getset db mmm     # 如果存在值,获取原来的值,并设置新的值
"redis"
127.0.0.1:6379> get db
"mmm"

String 类似的使用场景:value 除了使用字符串还可以是数字

  • 计数器
  • 统计多单位的数量 uid:95423:follow 0 incr
  • 粉丝数
  • 对象缓存存储

List (基本数据类型,列表)

在redis里面可以 作为 栈、队列、阻塞队列来使用

  • 所有的list命令都是以L开头的,redis不区分大小写命令
    在这里插入图片描述
127.0.0.1:6379> lpush list one 		# 将一个值或多个值,插入到列表头部(相当于从左放入)
(integer) 1
127.0.0.1:6379> lpush list two
(integer) 2
127.0.0.1:6379> lpush list three
(integer) 3
127.0.0.1:6379> lrange list 0 -1	# 获取list中的值
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> lrange list 0 1		# 通过区间获取具体的值
1) "three"
2) "two"
127.0.0.1:6379> rpush list right	# 将一个值或多个值,插入到列表尾部(右)
(integer) 4
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"

############################################################################
# lpop
# rpop
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> lpop list		# 移除list的第一个元素
"three"
127.0.0.1:6379> rpop list		# 移除list的最后一个元素
"right"
127.0.0.1:6379> lrange list 0 -1
1) "two"
2) "one"


############################################################################
# lindex

127.0.0.1:6379> lrange list 0 -1
1) "two"
2) "one"
127.0.0.1:6379> lindex list 1		# 通过下标获取 list的某一个值
"one"
127.0.0.1:6379> lindex list 0
"two"

############################################################################
# llen
127.0.0.1:6379> lpush list one
(integer) 1
127.0.0.1:6379> lpush list twe
(integer) 2
127.0.0.1:6379> lpush list three
(integer) 3
127.0.0.1:6379> llen list		# 返回列表的长度
(integer) 3

############################################################################
# 移除指定的值(取关 uid)
# lrem

127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "three"
3) "twe"
4) "one"
127.0.0.1:6379> lrem list 1 one		# 移除list集合中指定个数的value,精确匹配
(integer) 1
127.0.0.1:6379> lrange list 0 -1
1) "three"
2) "three"
3) "twe"
127.0.0.1:6379> lrem list 2 three
(integer) 2
127.0.0.1:6379> lrange list 0 -1
1) "twe"

############################################################################
# trim 修剪: list 截断

127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist hello1
(integer) 2
127.0.0.1:6379> rpush mylist hello2
(integer) 3
127.0.0.1:6379> rpush mylist hello3
(integer) 4
127.0.0.1:6379> ltrim mylist 1 2 		# 通过下标截取指定的长度,list已经被改变,截断了只剩下截取的元素
OK
127.0.0.1:6379> lrange mylist 0 -1
1) "hello1"
2) "hello2"

############################################################################
# rpoplpush  移除列表的最后一个元素,并将它移动到新的list中

127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist hello1
(integer) 2
127.0.0.1:6379> rpush mylist hello2
(integer) 3
127.0.0.1:6379> rpoplpush mylist myotherlist #移除列表的最后一个元素,并将它移动到新的list中
"hello2"
127.0.0.1:6379> lrange mylist 0 -1  # 查看原来的列表
1) "hello"
2) "hello1"
127.0.0.1:6379> lrange myotherlist 0 -1  # 查看目标列表中,确实存在
1) "hello2"

############################################################################
# lset 将列表中指定下标的值替换成另外一个值,更新操作
127.0.0.1:6379> exists list 		# 判断列表是否存在
(integer) 0
127.0.0.1:6379> lset liset 0 item	# 如果不存在list我们去更新就会报错
(error) ERR no such key
127.0.0.1:6379> lpush list value1
(integer) 1
127.0.0.1:6379> lrange list 0 0
1) "value1"
127.0.0.1:6379> lset list 0 item	# 如果存在,更新当前下标的值
OK
127.0.0.1:6379> lrange list 0 0
1) "item"
127.0.0.1:6379> lset list 1 other 	# 如果不存在下标,则会报错
(error) ERR index out of range

############################################################################
# linsert 将某个具体的value插入的列表中某个元素的前面或者后面
127.0.0.1:6379> rpush mylist hello
(integer) 1
127.0.0.1:6379> rpush mylist world
(integer) 2
127.0.0.1:6379> linsert mylist before "world" "other"
(integer) 3
127.0.0.1:6379> lrange mylist 0 -1
1) "hello"
2) "other"
3) "world"
127.0.0.1:6379> linsert mylist after world new
(integer) 4
127.0.0.1:6379> lrange mylist 0 -1
1) "hello"
2) "other"
3) "world"
4) "new"

小结

  • 实际上是一个链表, before node after ,left , right 都可以插入值
  • 如果key不存在,创建新的链表
  • 如果key存在,新增内容
  • 如果移除了 所有的值,空链表,也代表不存在
  • 在两边插入或改动值,效率最高!中间元素,相对来说效率会低一点

消息排队、消息队列(Lpush Rpop) ,栈(Lpush Lpop)

Set (集合,值不能重复)

127.0.0.1:6379> sadd myset hello		# set集合中添加元素
(integer) 1
127.0.0.1:6379> sadd myset lll
(integer) 1
127.0.0.1:6379> sadd myset lovelll
(integer) 1
127.0.0.1:6379> smembers myset			# 查看指定set的所有值
1) "lovelll"
2) "lll"
3) "hello"
127.0.0.1:6379> sismember myset hello	# 判断某一个值是不是在set集合中
(integer) 1
127.0.0.1:6379> sismember myset world
(integer) 0

############################################################################
127.0.0.1:6379> scard myset  # 获取set集合中的内容元素个数
(integer) 4

############################################################################

127.0.0.1:6379> srem myset hello  # 移除set集合中的指定元素
(integer) 1
127.0.0.1:6379> scard myset
(integer) 3
127.0.0.1:6379> smembers myset
1) "lovelll"
2) "123"
3) "lll"

############################################################################
# set 无序不重复集合,抽随机
127.0.0.1:6379> srandmember myset  # 随机抽选出一个元素
"123"
127.0.0.1:6379> srandmember myset 2 # 随机抽选出指定个数的元素
"lll"
"123"

############################################################################
# 删除指定的key,随机删除key
127.0.0.1:6379> smembers myset
1) "lovelll"
2) "123"
3) "lll"
127.0.0.1:6379> spop myset		# 随机删除一些set集合中的元素
"lovelll"
127.0.0.1:6379> smembers myset
1) "123"
2) "lll"

############################################################################
# 将一个指定的值,移动到另外的一个set集合中
127.0.0.1:6379> sadd myset hello
(integer) 1
127.0.0.1:6379> sadd myset world
(integer) 1
127.0.0.1:6379> sadd myset 111
(integer) 1
127.0.0.1:6379> sadd myset2 set3
(integer) 1
127.0.0.1:6379> smove myset myset2 111		# 将一个指定的值,移动到另外的一个set集合中
(integer) 1
127.0.0.1:6379> smembers myset
1) "world"
2) "hello"
127.0.0.1:6379> smembers myset2
1) "111"
2) "set3"

############################################################################
微博,B站,共同关注(交集)
数字集合类:
- 差集
- 交集
- 并集
127.0.0.1:6379> sadd key1 a
(integer) 1
127.0.0.1:6379> sadd key1 b
(integer) 1
127.0.0.1:6379> sadd key1 c
(integer) 1
127.0.0.1:6379> sadd key2 c
(integer) 1
127.0.0.1:6379> sadd key2 d
(integer) 1
127.0.0.1:6379> sadd key2 e
(integer) 1
127.0.0.1:6379> sdiff key1 key2  # 差集
1) "b"
2) "a"
127.0.0.1:6379> sinter key1 key2 # 交集 共同好友就可以这样实现
1) "c"
127.0.0.1:6379> sunion key1 key2 # 并集
1) "a"
2) "c"
3) "d"
4) "b"
5) "e"

微博,A用户将所有关注的人放在一个set集合中,将他的粉丝也放在一个集合中
共同关注,共同爱好,二度好友(六度分割理论),推荐好友

Hash(哈希)

map结合,key-map集合 key<key,value> 这个值是一个map集合,以h开头,本质和String类型没有太大区别,还是一个简单的key-value
set myhash field 111

127.0.0.1:6379> hset myhash field1 111  # set 一个具体的key-value
(integer) 1
127.0.0.1:6379> hget myhash field1		# 获取一个字段值
"111"
127.0.0.1:6379> hmset myhash field1 hello field2 world # set 多个key-value
OK
127.0.0.1:6379> hmget myhash field1 field2  # 获取多个字段值
1) "hello"
2) "world"
127.0.0.1:6379> hgetall myhash		# 获取全部的数据
1) "field1"
2) "hello"
3) "field2"
4) "world"

127.0.0.1:6379> hdel myhash field1  # 删除hash指定的key字段,对应的value值也对应消失
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"

############################################################################
hlen
127.0.0.1:6379> hmset myhash field1 hello field2 world
OK
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"
3) "field1"
4) "hello"
127.0.0.1:6379> hlen myhash   # 获取hash表的字段数量
(integer) 2

############################################################################
127.0.0.1:6379> hexists myhash field1  # 判断hash中的指定字段是否存在
(integer) 1
127.0.0.1:6379> hexists myhash field3
(integer) 0

############################################################################
# 只获取所有的field
# 只获得所有的对应的value
127.0.0.1:6379> hkeys myhash		# 只获取所有的field
1) "field2"
2) "field1"
127.0.0.1:6379> hvals myhash		# 只获得所有的对应的value
1) "world"
2) "hello"

############################################################################
incr decr
127.0.0.1:6379> hset myhash field3 5	# 指定增量
(integer) 1
127.0.0.1:6379> hincrby myhash field3 1 
(integer) 6
127.0.0.1:6379> hincrby myhash field3 -1
(integer) 5
127.0.0.1:6379> hsetnx myhash field4 hello  # 如果不存在则可以设置
(integer) 1
127.0.0.1:6379> hsetnx myhash field4 world   # 如果存在则不能设置
(integer) 0

hash 可以存 变更的数据 user name age (尤其是用户信息之类的,经常变动的信息)hash更适合于对象的存储,String更加适合字符串存储

127.0.0.1:6379> hset user:1 name qqq
(integer) 1
127.0.0.1:6379> hget user:1 name
"qqq"

Zset(有序集合)

在set的基础上,增加了一个值 set key1 v1 => zset key1 score1 v1

127.0.0.1:6379> zadd myset 1 one # 添加一个值
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three  # 添加多个值
(integer) 2
127.0.0.1:6379> zrange myset 0 -1
1) "one"
2) "two"
3) "three"

############################################################################
排序如何实现

127.0.0.1:6379> zadd salary 255 xiaohong 5000 zhangsan 500 xiaoli # 添加用户
(integer) 3
# zrangebyscore key min max
127.0.0.1:6379> zrangebyscore salary -inf +inf # 显示全部用户(-inf表示负无穷) 从小到大排序
1) "xiaohong"
2) "xiaoli"
3) "zhangsan"
127.0.0.1:6379> zrevrange salary 0 -1  # 从大到小进行排序
1) "zhangsan"
2) "xiaoli"

127.0.0.1:6379> zrangebyscore salary -inf +inf withscores # 显示全部用户,并且附带成绩
1) "xiaohong"
2) "255"
3) "xiaoli"
4) "500"
5) "zhangsan"
6) "5000"
127.0.0.1:6379> zrangebyscore salary -inf 2500 withscores # 显示工资小于2500员工的升序排序
1) "xiaohong"
2) "255"
3) "xiaoli"
4) "500"

############################################################################
# 移除rem中的元素
127.0.0.1:6379> zrange salary 0 -1
1) "xiaohong"
2) "xiaoli"
3) "zhangsan"
127.0.0.1:6379> zrem salary xiaohong  # 移除有序集合中的指定元素
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "xiaoli"
2) "zhangsan"
127.0.0.1:6379> zcard salary  # 获取有序集合中的个数
(integer) 2

############################################################################
127.0.0.1:6379> zadd myset 1 hello 2 world 3 111
(integer) 3
127.0.0.1:6379> zcount myset 1 3  # 获取指定区间的成员数量
(integer) 3
127.0.0.1:6379> zcount myset 1 2
(integer) 2

官方文档API:http://www.redis.cn/commands.html

  • 案例思路:set 排序 存储班级成绩表,工资表排序
  • 普通消息1,重要消息2 (带权重进行判断)
  • 排行榜应用实现,取top N测试

三种特殊数据类型

geospatial 地理位置

getadd 添加地理位置

# 规则:两极无法直接添加(南极、北极) 一般会下载城市数据,通过java进行一次性导入
# 参数 key  值(纬度、经度、名称)
# 有效的经度从-180度到180度。
# 有效的纬度从-85.05112878度到85.05112878度。
# 当坐标位置超出上述指定范围时,该命令将会返回一个错误
# 127.0.0.1:6379> geoadd china:city 39.90 116.40  beijing
# (error) ERR invalid longitude,latitude pair 39.900000,116.400000  (超出范围的报错)
127.0.0.1:6379> geoadd china:city 116.40 39.90 beijing
(integer) 1
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqin
(integer) 1
127.0.0.1:6379> geoadd china:city 114.05 22.52 shengzhen 120.16 30.24 hangzhou
(integer) 2
127.0.0.1:6379> geoadd china:city 108.96 34.26 xian
(integer) 1

GEOPOS 获取指定城市的经度和纬度

获得当前定位:一定是一个坐标值

127.0.0.1:6379> geopos china:city beijing
1) 1) "116.39999896287918"
   2) "39.900000091670925"
127.0.0.1:6379> geopos china:city beijing chongqin
1) 1) "116.39999896287918"
   2) "39.900000091670925"
2) 1) "106.49999767541885"
   2) "29.529999579006592"

GEODIST 返回两人之间的距离

单位:

  • m 表示单位为米。
  • km 表示单位为千米。
  • mi 表示单位为英里。
  • ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city beijing shanghai #查看上海到北京的直线距离 单位
"1067378.7564"
127.0.0.1:6379> geodist china:city beijing shanghai km
"1067.3788"

GEORADIUS 以给定的经纬度为中心, 找出某一半径内的元素

我附近的人?(获得所有附件的人的位置,定位)通过半径来查询

所有的数据都应该录入:china:city 才会让结果更加清晰

127.0.0.1:6379> georadius china:city 110 30 1000 km #以110 30 这个经纬度为中心,寻找方圆1000km内的城市
1) "chongqin"
2) "xian"
3) "shengzhen"
4) "hangzhou"
127.0.0.1:6379> georadius china:city 110 30 500 km
1) "chongqin"
2) "xian"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist  # 显示到中心距离的位置
1) 1) "chongqin"
   2) "341.9374"
2) 1) "xian"
   2) "483.8340"
127.0.0.1:6379> georadius china:city 110 30 500 km withcoord  # 显示他人的定位信息
1) 1) "chongqin"
   2) 1) "106.49999767541885"
      2) "29.529999579006592"
2) 1) "xian"
   2) 1) "108.96000176668167"
      2) "34.2599996441893"
127.0.0.1:6379> georadius china:city 110 30 500 km withdist withcoord count 1  # 筛选出指定结果 1条
1) 1) "chongqin"
   2) "341.9374"
   3) 1) "106.49999767541885"
      2) "29.529999579006592"

GEORADIUSBYMEMBER

找出位于指定范围内的元素,中心点是由给定的位置元素决定

# 找出位于指定元素周围的其他元素
127.0.0.1:6379> GEORADIUSBYMEMBER china:city beijing 1000 km
1) "beijing"
2) "xian"
127.0.0.1:6379> GEORADIUSBYMEMBER china:city shanghai 400 km
1) "hangzhou"
2) "shanghai"

GEOHASH 返回一个或多个位置元素的 Geohash 表示

该命令将返回11个字符的Geohash字符串

# 范围二维的经纬度转换成一维的字符串(如果两个字符串越接近,则距离越近)
127.0.0.1:6379> geohash china:city chongqin
1) "wm5xzrybty0"

geo 底层的实现原理

zset ,可以使用zset命令来操作geo

127.0.0.1:6379> zrange china:city 0 -1  # 查看地图中全部元素
1) "chongqin"
2) "xian"
3) "shengzhen"
4) "hangzhou"
5) "shanghai"
6) "beijing"
127.0.0.1:6379> zrem china:city beijing # 移除指定元素
(integer) 1
127.0.0.1:6379> zrange china:city 0 -1
1) "chongqin"
2) "xian"
3) "shengzhen"
4) "hangzhou"
5) "shanghai"

Hyperloglog(基数统计的算法)

什么是基数?

A{1,3,5,7,8,9,7} B{1,3,5,7,8} 基数(一个数据集内的不重复的元素的数量)=> 5,可以接受误差

网页的UV (一个人访问一个网站多次,还是算作一个人)

  • 传统的方式,set 保存用户的id,然后就可以统计set中的元素数量作为标准判断(这个方式,如果保存大量的用户id,就会比较麻烦,目的是为了计数,而不是保存用户id)
  • 像统计UV任务,0.81%错误率可以忽略不计

优点:

  • 占用的内存固定,2^64不同的元素的技术,只需要废12kb内存
  • 如果从内存角度比较的话,应为首选(存在0.81%的错误率)
127.0.0.1:6379> pfadd mykey a b c d e f g h i j  # 创建第一组元素 mykey
(integer) 1
127.0.0.1:6379> pfcount mykey  		# 统计 mykey 元素的基数数量
(integer) 10
127.0.0.1:6379> pfadd mykey2 i j z x c v b n m # 创建第二组元素 mykey2
(integer) 1
127.0.0.1:6379> pfcount mykey2
(integer) 9
127.0.0.1:6379> pfmerge mykey3 mykey mykey2 # 合并两组 mykey mykey2 => mykey3 并集
OK
127.0.0.1:6379> pfcount mykey3 # 查看并集的数量
(integer) 15

如果允许容错,那么一定可以使用Hyperloglog!
如果不容许容错,就使用 set 或者自己的数据类型即可!

Bitmap

位存储

  • 只有两个状态的都可以使用,Bitmap
    • 统计疫情感染人数:0 1 0 1(感染为1,未感染0,统计差值)
    • 活跃、不活跃!
    • 登录、未登录!
    • 打卡、365打卡
  • Bitmap位图,数据结构 都是操作二进制来进行记录,就只有0 和1 两个状态

在这里插入图片描述
使用bitmap来记录

  • 周一到周日的打卡(打卡:1,未打卡:0)
  • 周一:1 周二:0 周三:0···(统计打卡天数就是统计有多少个1)
127.0.0.1:6379> setbit sign 0 1		
(integer) 0
127.0.0.1:6379> setbit sign 1 0
(integer) 0
127.0.0.1:6379> setbit sign 2 0
(integer) 0
127.0.0.1:6379> setbit sign 3 1
(integer) 0
127.0.0.1:6379> setbit sign 4 1
(integer) 0
127.0.0.1:6379> setbit sign 5 0
(integer) 0
127.0.0.1:6379> setbit sign 6 0
(integer) 0
  • 查看某一天是否有打卡
127.0.0.1:6379> getbit sign 3
(integer) 1
127.0.0.1:6379> getbit sign 6
(integer) 0
  • 统计打卡的天数
127.0.0.1:6379> bitcount sign  # 统计这周的打卡记录  就可以看到是否有全勤
(integer) 3

事务

mysql:ACID 原子性(要么同时成功,要么同时失败)
redis 单条命令是保证原子性的,但redis的事务不保证原子性
Redis 事务的本质:一组命令的集合,一个事务中的所有命令都会被序列化,在事务执行过程中,会按照顺序执行。

  • 一次性
  • 顺序性
  • 排他性

来执行一系列的命令

----- 队列 set set set 执行 -----

redis事务没有隔离级别的概念
所有的命令在事务中,并没有直接被执行,只有发起执行命令的时候才会执行(exec)

redis的事务:

  • 开启事务(multi)
  • 命令入队(…)
  • 执行事务(exec)

正常执行事务

127.0.0.1:6379> multi  # 开启事务
OK
# 命令入队
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> get k2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> exec  # 执行事务
1) OK
2) OK
3) "v2"
4) OK

放弃事务

127.0.0.1:6379> multi   # 开启事务
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> discard   # 取消事务
OK
127.0.0.1:6379> get k4		 # 事务队列中的命令都不会被执行
(nil)

编译型异常(代码有问题!命令错误!)事务中所有的命令都不会被执行

127.0.0.1:6379> multi
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> getset k3		# 错误的命令
(error) ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> set k5 v5
QUEUED
127.0.0.1:6379> exec 			# 执行事务报错
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> get k5			# 所有的命令都不会被执行
(nil)

运行时异常(1/0)如果事务队列中存在语法性错误,那么执行命令的时候,其他命令是可以正常执行的,错误命令抛出异常

127.0.0.1:6379> set k1 "v1"
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> incr k1  # 代码结构没问题 执行的时候会失败
QUEUED
127.0.0.1:6379> set k2 "v2"
QUEUED
127.0.0.1:6379> set k3 "v3"
QUEUED
127.0.0.1:6379> get k3
QUEUED
127.0.0.1:6379> exec
1) (error) ERR value is not an integer or out of range  # 随然第一条命令操作,但依旧是正常执行成功的
2) OK
3) OK
4) "v3"
127.0.0.1:6379> get k2
"v2"

监控 watch (面试常问!)

悲观锁:

  • 很悲观,认为什么时候都会出问题,无论做什么都会加锁

乐观锁:

  • 很乐观,认为什么时候都不会出现问题,所以不会上锁,更新数据的时候去判断一下,在此期间是否有人修改过这个数据,(使用version字段)
  • 获取 version
  • 更新的时候比较 version
# 正常执行成功
127.0.0.1:6379> set money 100
OK
127.0.0.1:6379> set out 0
OK
127.0.0.1:6379> watch money 	# 监视money 对象
OK
127.0.0.1:6379> multi			# 事务正常结束,数据期间没有发生变动,这个时候就正常执行成功
OK
127.0.0.1:6379> decrby money 20
QUEUED
127.0.0.1:6379> incrby out 20
QUEUED
127.0.0.1:6379> exec
1) (integer) 80
2) (integer) 20

##########################################################
# 测试多线程修改值,监视失败,使用watch (可以当作redis的乐观锁操作)
127.0.0.1:6379> watch money		#监视  money
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby money 10
QUEUED
127.0.0.1:6379> incrby out 10
QUEUED
127.0.0.1:6379> exec			# 执行之前,另外一个线程,修改了我们的值,这个时候就会导致事务执行失败
(nil)

##########################################################
# 如果修改失败,获取最新的值就好
127.0.0.1:6379> unwatch  # 如果发现事务执行失败,就先解锁
OK
127.0.0.1:6379> watch money  # 获取最新的值,再次监视,相当于select version
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby money 10
QUEUED
127.0.0.1:6379> incrby out 10
QUEUED
127.0.0.1:6379> exec  		# 比对监视的值是否发生了变化,如果没有变化,那么可以执行成功,变化了就执行失败
1) (integer) 990
2) (integer) 30

Jedis

使用Java操作redis

jedis:是redis官方推荐的java连接开发工具,使用Java操作redis的中间件

测试

1、导入对应的依赖

 <!-- 导入jedis的包   -->
    <dependencies>
        <!-- https://mvnrepository.com/artifact/redis.clients/jedis -->
        <dependency>
            <groupId>redis.clients</groupId>
            <artifactId>jedis</artifactId>
            <version>3.2.0</version>
        </dependency>
        <!-- fastjson       -->
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>fastjson</artifactId>
            <version>1.2.62</version>
        </dependency>
    </dependencies>

2、编码测试

  • 连接数据库
  • 操作命令
  • 断开连接

在这里插入图片描述

package com.kuang;

import redis.clients.jedis.Jedis;

public class TestPing {
    
    
    public static void main(String[] args) {
    
    
        // 1、 new jedis 对象即可
        Jedis jedis = new Jedis("127.0.0.1",6379);
        // jedis 所有的命令就是我们之前学习的所有指令
        System.out.println(jedis.ping());
    }
}

输出:

PONG

常用的API

String
list
set
hash
zset

事务

public class TestTX {
    
    
    public static void main(String[] args) {
    
    
        Jedis jedis = new Jedis("127.0.0.1",6379);

        jedis.flushDB();
        JSONObject jsonObject = new JSONObject();
        jsonObject.put("hello","world");
        jsonObject.put("name","kuangsheng");
        // 开启事务
        Transaction mult = jedis.multi();
        String result = jsonObject.toJSONString();
        //  jedis.watch(result);
        try {
    
    
            mult.set("user1",result);
            mult.set("user2",result);
            int i=1/0; // 代码抛出异常,事务执行失败
            // 执行事务
            mult.exec();
        } catch (Exception e) {
    
    
            // 放弃事务
            mult.discard();
            e.printStackTrace();
        } finally {
    
    
            System.out.println(jedis.get("user1"));
            System.out.println(jedis.get("user2"));
            // 关闭连接
            jedis.close();
        }


    }
}

SpringBoot 整合

说明:在springboot2.x之后,原来使用的jedid被替换为了 lettuce
jedis: 采用的是直连,多个线程操作的话,是不安全的,如果想要避免不安全,是由 Jedis pool 连接池 (类似于 BIO模式)
lettuce :采用netty,实例可以在多个线程中进行共享,不存在线程不安全的情况,可以减少线程数量,(类似于NIO模式)
在这里插入图片描述
源码分析:

@Bean
// 表示如果不存在这个bean就会生效,表示我们可以自己定义一个redistemplate来替换这个默认的
	@ConditionalOnMissingBean(name = "redisTemplate")
	@ConditionalOnSingleCandidate(RedisConnectionFactory.class)
	public RedisTemplate<Object, Object> redisTemplate(RedisConnectionFactory redisConnectionFactory) {
    
    
	// 默认的 redisTemplate 没有过多的设置,redis对象都是需要序列化 
	// 两个泛型都是object,object的类型,后面使用需要强制转换<String,object>
		RedisTemplate<Object, Object> template = new RedisTemplate<>();
		template.setConnectionFactory(redisConnectionFactory);
		return template;
	}

	@Bean
	@ConditionalOnMissingBean // 由于String是redis中最常使用的类型,所以单独提出来了一个bean
	@ConditionalOnSingleCandidate(RedisConnectionFactory.class)
	public StringRedisTemplate stringRedisTemplate(RedisConnectionFactory redisConnectionFactory) {
    
    
		StringRedisTemplate template = new StringRedisTemplate();
		template.setConnectionFactory(redisConnectionFactory);
		return template;
	}

整合测试

1、导入依赖

<!-- 操作redis	-->
		<dependency>
			<groupId>org.springframework.boot</groupId>
			<artifactId>spring-boot-starter-data-redis</artifactId>
		</dependency>

2、配置连接

spring.redis.host=127.0.0.1
spring.redis.port=6379

3、测试

@SpringBootTest
class Redis02SpringbootApplicationTests {
    
    

	@Autowired
	private RedisTemplate redisTemplate;

	@Test
	void contextLoads() {
    
    

		// redisTemplate  操作不同的数据类型,api和指令是一样的
		// opsForValue 操作字符串  类似String
		// opsForList  操作list   类似list
		// opsForSet  操作list   类似list
		// opsForHash
		// opsForZSet
		// opsForGeo
		// opsForHyperLogLog

		// 除了基本的操作 常用的方法都可以直接 通过redisTemplate操作
		// 例如事务 和基本的CRUD(增删改查)

		// 获取redis的连接对象
//		RedisConnection connection=redisTemplate.getConnectionFactory().getConnection();
//		connection.flushDb();
//		connection.flushAll();

		redisTemplate.opsForValue().set("mykey","kuangsheng");
		System.out.println(redisTemplate.opsForValue().get("mykey"));
	}

}

在这里插入图片描述
在这里插入图片描述
关于对象的保存
在这里插入图片描述
编写一个自己的RedisTemplate

@Configuration
public class RedisConfig {
    
    
    
    // 这是一个固定模板,在企业中拿去就可以使用
  // 编写自己的 redisTemplate
  @Bean
  @SuppressWarnings("all")
  public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
    
    
      // 我们为了自己开发方便,一般直接使用 <String, Object>
      RedisTemplate<String, Object> template = new RedisTemplate<String, Object>();
      // 连接工厂
      template.setConnectionFactory(factory);

      // Json序列化配置
      Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
      ObjectMapper om = new ObjectMapper();
      om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
      om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
      jackson2JsonRedisSerializer.setObjectMapper(om);
      // String的序列化
      StringRedisSerializer stringRedisSerializer = new StringRedisSerializer();

      // 配置具体的序列化方式
      // key采用String的序列化方式
      template.setKeySerializer(stringRedisSerializer);
      // hash的key也采用String的序列化方式
      template.setHashKeySerializer(stringRedisSerializer);
      // value序列化方式采用jackson
      template.setValueSerializer(jackson2JsonRedisSerializer);
      // hash的value序列化方式采用jackson
      template.setHashValueSerializer(jackson2JsonRedisSerializer);
      template.afterPropertiesSet();

      return template;
  }
}

Redis.cof详解

启动的时候,通过配置文件来启动的

单位

在这里插入图片描述
1、配置文件unit单位对大小写不敏感

包含 INCLUDES

在这里插入图片描述

网络 NETWORK

bind 127.0.0.1  # 绑定的ip 
protected-mode yes  # 保护模式
port 6379	# 端口设置

通用 GENERAL

daemonize yes # 以守护进程的方式运行,默认是no 需要自己改为yes

pidfile /var/run/redis_6379.pid  # 如果以后台的方式运行,就需要指定一个pid文件

# 日志
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably)  默认生产环境使用
# warning (only very important / critical messages are logged)
loglevel notice

logfile "" # 日志的文件位置名,为空是标准的输出

databases 16	# 数据库的数量,默认是16个数据库

always-show-log yes #是否总是显示logo

快照 SNAPSHOTTING

持久化,在规定时间内,执行了多少次操作,则会持久化到文件 .rdb .aof

redis 是内存数据库,如果没有持久化,那么数据断电及失

#  如果900 秒内,如果至少有一个key进行了修改,我们就进行持久化操作
save 900 1
#  如果300秒内,如果至少有10个key进行了修改,我们就进行持久化操作
save 300 10
#  如果60秒内,如果至少有10000个key进行了修改,我们就进行持久化操作
save 60 10000
# 我们之后学习持久化,会自己定义这个测试

stop-writes-on-bgsave-error yes  # 持久化如果出错,是否还要继续工作

rdbcompression yes  	# 是否压缩 rdb 文件,需要消耗一些cpu资源

rdbchecksum yes   		# 保存rdb文件的时候,进行错误的检查校验

dir ./ 					# rdb 文件保存的目录

REPLICATION 复制(主从复制)

SECURITY 安全

可以在这里设置redis密码,默认是没有密码的

127.0.0.1:6379> config get requirepass		# 获取密码
1) "requirepass"
2) ""
127.0.0.1:6379> config set requirepass "123456"		# 设置密码
127.0.0.1:6379> config get requirepass				# 发现所有的命令都没有权限
(error) NOAUTH Authentication required
127.0.0.1:6379> auth 123456							# 使用密码进行登录
OK
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "123456"

CLIENTS 限制 (LIMITS)

maxclients 10000   # 设置能连接上redis的最大客户端数量

maxmemory <bytes>  # redis配置最大的内存容量

maxmemory-policy noeviction  	# 内存到达上限之后的处理策略
								# 移除一些过期的key
								# 报错 等
								maxmemory-policy 六种方式
								1、volatile-lru:只对设置了过期时间的key进行LRU(默认值) 
								2、allkeys-lru : 删除lru算法的key   
								3、volatile-random:随机删除即将过期key   
								4、allkeys-random:随机删除   
								5、volatile-ttl : 删除即将过期的   
								6、noeviction : 永不过期,返回错误

APPEND ONLY MODE 模式 aof配置

appendonly no  # 默认是不开启aof模式的,默认使用rdb方式持久化,在大部分所有的情况下,rdb完全够用

appendfilename "appendonly.aof"  # 持久化文件的名字

# appendfsync always	每次修改都会 sync,消耗性能
appendfsync everysec   # 每秒执行一次  sync同步,但是可能会丢失这1s数据
# appendfsync no        不执行  sync ,这个时候操作系统自己同步数据,速度最快

具体配置见下文AOF

Redis持久化(重点!!)

redis 是内存数据库,如果不将内存中的数据状态保存到磁盘,那么一旦服务进程退出,服务器中的数据库状态也会消失,所以redis提供了持久化功能

RDB(Redis DataBase)

在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是snapshot快照,它恢复时是将快照文件直接读到内存里。

  • 在主从复制中,rdb就是备用的!从机上面!
    在这里插入图片描述

  • redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件

  • 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能,

  • 如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加高效

  • RDB的缺点是最后一次持久化后的数据可能丢失

  • 默认的就是RDB,一般情况下不需要修改这个配置

有时候在生产环境,我们会将这个文件进行备份
RDB 保存的文件是 dump.rdb 都是在配置文件中的快照中进行配置的

在这里插入图片描述
在这里插入图片描述

rm -rf dump.rdb #删除rdb文件

在这里插入图片描述

触发机制

1、save的规则满足的情况下,会自动触发RDB规则
2、执行 flushall 命令 ,也会触发RDB规则
3、退出redis ,也会产生RDB文件
备份就自动生成一个dump.rdb文件
在这里插入图片描述

如何恢复rdb文件

1、 只需要将rdb文件放在redis启动目录就可以,redis启动的时候会自动检查dump.rdb文件 恢复其中的数据
2、查看需要存放的位置

127.0.0.1:6379> config get dir
1) "dir"
2) "D:\\redies\\Redis-x64-3.2.100" / "/usr/local/bin"  # 如果在这个目录下存在 dump.rdb 文件,启动就会自动恢复其中的数据

优点:

  • 适合大规模的数据恢复 dump.rdb
  • 对数据的完整性要求不高
    缺点:
  • 需要一定的时间间隔进行修改,如果redis意外宕机了,这个最后一次的修改数据就没有了
  • fork进程的时候,会占用一定的内存空间

扩展:
1、RDB 持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2、AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾,redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大
3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不适用任何持久化
4、同时开启两种持久化方式

  • 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整
  • RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,建议不要使用AOF,因为RDB更适合于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段
    5、性能建议
  • 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留 save 900 1这条规则
  • 如果开启enable aof,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单,只load自己的AOF文件就可以,代价一是带来了持续的IO,二是AOF rewrite 的最后将 rewrite 过程中产生的新数据写到新文件造成的阻塞几乎啊hi不可避免的,只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF 重写的基础大小默认值64M 太小,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值
  • 如果不Enable AOF,仅靠 Master-Slave Repllcation(主从复制) 实现高可用性也可以,能省掉一大笔IO,也减少rewrite时带来的系统波动,代价是如果Master(主机)/Slave(从机)同时宕机了(断电),会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个,微博就是这种架构

AOF (Append Only File)

将所有的命令都 记录下来,history,恢复的时候就把这个文件全部再执行一遍
在这里插入图片描述

  • 以日志的形式来记录每个写操作,将redis执行过的所有指令记录下来(读操作不记录)
  • 只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据
  • redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
    aof保存的文件是:appendonly.aof文件

append
在这里插入图片描述
默认是不开启的,需要手动进行配置,我们只需要将appendonly 改为 yes就开启了aof

重启redis就可以生效了

  • 如果aof文件有错误,这时redis是启动不起来的,
  • 需要修复这个aof配置文件,redis提供了一个工具,redis-check-aof --fix 就可以进行修复
    在这里插入图片描述
    在这里插入图片描述
    如果文件正常,重启就可以直接恢复了
    在这里插入图片描述

重写规则说明

AOF默认的是文件的无限制追加,文件会越来越大!
在这里插入图片描述
如果aof文件大于64mb,太大了! fork一个新的进程来将我们的文件进行重写

优缺点

appendonly no  # 默认是不开启aof模式的,默认使用rdb方式持久化,在大部分所有的情况下,rdb完全够用

appendfilename "appendonly.aof"  # 持久化文件的名字

# appendfsync always	每次修改都会 sync,消耗性能
appendfsync everysec   # 每秒执行一次  sync同步,但是可能会丢失这1s数据
# appendfsync no        不执行  sync ,这个时候操作系统自己同步数据,速度最快

# rewrite 重写

优点:

  • 每一次修改都同步,文件的完整性会更加好
  • 每秒同步一次,可能会丢失一秒的数据
  • 从不同步,效率最高
    缺点:
  • 相对于数据文件来说,aof远远大于rdb,修复的速度也比rdb慢
  • aof运行效率也比rdb慢,所以redis默认配置是rdb 持久化

Redis发布订阅

redis 发布订阅(pub/sub)是一种消息通信模式;发送者(pub)发送消息,订阅者(sub)接收消息(微信,微博,关注系统,专业:消息队列)

  • redis 客户端可以订阅任意数量的频道

订阅/发布消息图:

  • 消息发送者
  • 频道
  • 消息订阅者
    在这里插入图片描述
    下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:
    在这里插入图片描述
    当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个客户端:
    在这里插入图片描述

命令

在这里插入图片描述

测试

订阅端:

127.0.0.1:6379> subscribe kuangshengshuo		# 订阅一个频道
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "kuangshengshuo"
3) (integer) 1
# 等待读取推送的信息
1) "message"		# 消息
2) "kuangshengshuo"	# 哪个频道的消息
3) "hello"			# 消息的具体内容

发送端:

127.0.0.1:6379> publish kuangshengshuo hello	# 发布者发布消息到频道
(integer) 1

原理

  • redis是使用c实现的,通过redis源码里的pubsub.c文件,可以了解发布和订阅机制的底层实现

  • redis通过 publish 、subscribe、psubscribe(接受多个)等命令实现发布和订阅功能
    在这里插入图片描述

  • 通过subscribe 命令订阅某频道后,Redis-server 里维护了一个字典,字典的键就是一个个channel (频道),而字典的值则是一个链表,链表中保存了所有订阅这个channel的客户端,subscribe 命令的关键:就是将客户端添加到给定channel 的订阅链表中

  • 通过publish 命令向订阅者发送消息,redis-server会使用给定的频道作为键,在它所维护的channel字典中查找记录了订阅这个频道的所有客户端的链表,遍历这个链表,将消息发布给所有订阅者

  • pub/sub ,在redis中,可以设定对某一个key值进行消息发布及消息订阅,当一个key值上进行了消息发布后,所有订阅它的客户端都会收到相应的消息。(实时消息系统)

使用场景

  • 实时消息系统
  • 实时聊天(频道当作聊天室,将信息回显给所有人)
  • 订阅、关注系统
    稍微复杂的场景:消息中间件 MQ

Redis主从复制

概念

主从复制,是将一台redis服务器的数据,复制到其他redis服务器,前者称为主节点(master/leader),后者称为从节点(slave/follower);数据库的复制都是单向的,只能由主节点到从节点。master 以写为主,slave 以读为主

  • 默认情况下,每台redis服务器都是主节点
  • 且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点
    在这里插入图片描述
    主从复制,读写分离!80%的情况下都是在进行读操作!减缓服务器的压力!(架构中经常使用) 一主二从

主从复制的作用主要包括:

  • 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式
  • 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余
  • 负载均衡:在主从复制的基础上,配合读写分离,可以有主节点提供写服务,由从节点提供读服务(即写redis数据时应用连接主节点,读redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分配读负载,可以提高redis服务器的并发量
  • 高可用(集群)基石:主从复制还是哨兵和集群能够实施的基础,因此主从复制是redis高可用的基础

要将redis运用于工程项目中,不能只使用一台redis(宕机,一主二从),原因:

  • 从结构上,单个redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大
  • 从容量上,单个redis服务器内存容量有限(一台redis服务器内存容量为256g,也不能将所有内存用作redis存储内存(单台redis最大使用内存不应该超过20G
  • 只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用redis

环境配置

只配置从库,不配置主库

127.0.0.1:6379> info replication. # 查看当前库的信息
# Replication
role:master		# 角色 master
connected_slaves:0	# 没有从机
master_failover_state:no-failover
master_replid:0062187ff7c7def30cf7f472bf0e18f784779a6b
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
  • 打开三个 服务器
cd /usr/local/bin
  • 拷贝多个配置文件
cp redis.conf redis79.conf

在这里插入图片描述

  • 修改各个配置文件对应信息
    • 端口号(port:进程占用的端口号)
    • pid名字(portID:记录了进城的ID,文件带有锁,可以防止程序的多次启动)
    • log文件名字(logfile:明确日志文件的位置)
    • dump.rdb文件名字(持久化文件位置)

例如:修改redis79.cof配置文件(端口号为6379)

ls
vim redis79.cof
vim redis80.cof
vim redis81.cof

修改端口
在这里插入图片描述
打开后台运行/后台服务 (改为yes)
在这里插入图片描述
后台进程文件改为对应的
在这里插入图片描述
修改日志文件
在这里插入图片描述
修改rdb文件
在这里插入图片描述
保存 esc :wq 退出

  • 修改完毕之后,启动三个服务,可以通过进程信息查看
redis-server kconfig/redis79.cof
redis-server kconfig/redis80.cof
redis-server kconfig/redis81.cof

# 查看进程信息
lilithliu@lilith ~ % ps -ef|grep redis
  503 42324 34247   0  1:18下午 ttys000    0:04.40 ./redis-server *:6379
  503 44552 42330   0  1:50下午 ttys001    0:00.01 redis-cli
  503 48316 48296   0  2:46下午 ttys003    0:00.00 grep redis

在这里插入图片描述

一主二从

默认情况下,每台redis服务器都是主节点 一般情况下,只用配置从机就好

  • 认老大! 一主(79)二从(80,81)
# 去从机中进行配置
127.0.0.1:6380> SLAVEOF 127.0.0.1 6379  # 找谁认老大
127.0.0.1:6380> OK
127.0.0.1:6380> info replication. # 查看当前库的信息
# Replication
role:slave		# 当前角色 slave
master_host:127.0.0.1	# 主机地址
master_port:6379		
master_link_status:up
master_sync_in_progress:0
slave_repl_offser:14
slave_priority:100
slave_read_only:1
connected_slaves:0	# 没有从机
master_failover_state:no-failover
master_replid:0062187ff7c7def30cf7f472bf0e18f784779a6b
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:14

# 在主机中查看
127.0.0.1:6379> info replication. # 查看当前库的信息
# Replication
role:master		# 当前角色 slave
connected_slaves:1	# 一台从机 (多了从机的配置)
slave0:ip=127.0.0.1,port=6380,state=online,offset=42,lag=1		# 从机的信息
master_failover_state:no-failover
master_replid:0062187ff7c7def30cf7f472bf0e18f784779a6b
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:42
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:42

如果两个都配置完了,就有两个从机
在这里插入图片描述
== 真实的主从配置应该在配置文件中进行配置==,这样是永久的,在这里使用的是命令配置

cd kconfig/
vim redis.conf

在配置文件 replication 部分
在这里插入图片描述

细节

  • 主机可以写,从机不能写只能读!主机中的所有信息和数据,都会自己动被从机保存
    主机写:
    在这里插入图片描述
    从机只能读,写会报错
    在这里插入图片描述
  • 测试:主机断开连接,从机依旧是连接到主机的,但是没有写操作;这个时候,主机如果回来了,从机依旧可以直接获取到主机写的信息
  • 如果是使用命令行,配置的主从,从机如果重启了就会变成主机(拿不到原主机的值),再次变为从机,立马就会从主机中获取值

复制原理

  • slave 启动成功连接到master 后会发送一个sync同步命令
  • master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master 将传送整个数据文件到slave,并完成一次完全同步
    • 全量复制:而slave 服务在接收到数据库文件数据后,将其存盘并加载到内存中
    • 增量复制:master 继续将新的所有收集到的修改命令依次传给slave,完成同步
  • 但是只要是重新连接master,一次完全同步(全量复制)将被自动执行,数据一定可以在从机中看到!

层层链路

上一个M链接下一个S
在这里插入图片描述
这个时候也可以完成主从复制,但工作中都不会使用

如果没有master,这个时候能不能选择一个master 出来呢?
手动!(谋朝篡位)

如果主机断开了连接(宕机/断开),我们可以使用slaveof no one 让自己变成主机,其他的节点就可以手动连接到最新的主节点(手动)

127.0.0.1:6381 > slaveof no one

如果这个时候老大修复了,那就只能重新连接

哨兵模式(重点)

(自动选举老大的模式)

概述

  • 主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,还会造成一段时间内服务不可用。(不推荐—)
  • redis2.8开始提供了Sentinel(哨兵)架构来解决这个问题,
    - 谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库

哨兵模式是一种特殊的模式

  • redis提供了哨兵的命令,哨兵是个独立的进程,作为进程,他会独立运行
  • 其原理是哨兵通过发送命令,等待redis服务器响应,从而监控运行的多个redis实例

在这里插入图片描述
哨兵的两个作用:

  • 通过发送命令,让redis服务器返回监控其运行状态,包括主服务器和从服务器
  • 当哨兵监测到master 宕机,会自动将slave 切换成master,然后通过发布订阅模式同志其他的从服务器,修改配置文件,让其切换主机
    在这里插入图片描述
    然而一个哨兵进程对redis服务进行监控,可能会出现问题
  • 使用多个哨兵进行监控,各个哨兵之间还会进行监控,这样就形成了多哨兵模式
    在这里插入图片描述
  • 假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover【重新选举】过程,仅仅哨兵1主观的认为主服务器不可用,这个现象称为主观下线
  • 当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover【故障转移】操作。
  • 切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线

测试

目前的状态一主二从!

  • 建立一个哨兵,配置哨兵配置文件
    (只是核心配置/基本配置,不是全部配置)
cd kconfig/
ls
ll 

vim sentinel.conf  # 新建文件

# sentinel monitor 被监控的名称 host port 1
sentinel monitor myredis 127.0.0.1 6379 1  # monitor监视  

数字1:表示主机挂了,slave 投票看让谁接替成为主机,票数最多的,就会成为主机

  • 启动哨兵
bin] redis-sentinel kconfig/sentinel.conf

在这里插入图片描述
如果master 节点断开了,这个时候就会从从机中随机选择一个服务器(这里面有一个投票算法)
在这里插入图片描述
哨兵日志
在这里插入图片描述

  • 如果主机此时回来了,只能归并到新的主几下当作从机,这就是哨兵模式的规则
    在这里插入图片描述

哨兵模式

优点:

  • 哨兵集群,基于主从复制模式,所有的主从配置有点,它全有
  • 主从可以切换,故障可以转移,系统的可用性就会更好
  • 哨兵模式就是主从模式的升级,手动到自动,更加健壮

缺点:

  • Redis 不好在线扩容,集群容量一旦达到上限,在线扩容就十分麻烦
  • 实现哨兵模式的配置很麻烦,里面有很多的选择

哨兵模式的全部配置

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
配置一般都是由运维来配置

Redis缓存穿透和雪崩(面试高频,工作常用)

服务的高可用问题
在这里插入图片描述

缓存穿透(查不到)

概念

用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(秒杀),于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候相当于出现了缓存穿透。

解决方案

布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力。

在这里插入图片描述
缓存空对象

当存储层不命中后,即使返回空对象也是将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后段数据源;
在这里插入图片描述
但这种方法会存在两个问题:
1、如果空值被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保存一致性的业务会有影响。

缓存击穿(量太大,缓存过期)

概述

  • 缓存击穿是指一个key非常热点,在不停的扛着大并发,大并发集中对这个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞
  • 当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导致数据库瞬间压力过大

解决方案

设置热点数据永不过期:
从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题

** 加互斥锁:**
分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大
在这里插入图片描述

缓存雪崩

概念

缓存雪崩,是指在某一个时间段,缓存集中过期失效。redis宕机!

  • 产生雪崩的原因之一:比如在写本文的时候,马上就要到双十二0点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一小时,那么到1点的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。

在这里插入图片描述

  • 比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。但缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮
    双十一:会停掉一些服务,(保证主要的服务可用)

解决方案

redis高可用:
多增设几台redis,这样一台挂掉之后其余的还可以继续工作,这就是搭建集群
(异地多活)

限流降级(Spring cloud讲过):
在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量,比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。

数据预热:
数据加热的含义就是在正式部署之前,把可能的数据先预热访问一遍,这样部分可能大量访问的数据就会加载到缓存中,在即将发生大并发访问前手动出发加载缓存不同的key,设置不同的过期时间,让缓存失效的时间点尽量均匀。

问题

redisTemplate操作hash如何设置过期时间


RedisTemplate.opsForHash().put(H,Hk,Hv");//存值
RedisTemplate.expire(H, 10, TimeUnit.SECONDS); //设置超时时间10秒 第三个参数控制时间单位,详情查看TimeUnit
redisTemplate.opsForHash().put(RedisHashKey.REFUSE_GET_CARD+x_customer_id,cardId,String.valueOf(System.currentTimeMillis()));
redisTemplate.expire(RedisHashKey.REFUSE_GET_CARD+x_customer_id,776000,TimeUnit.SECONDS);

redisTemplate删除key的方法

redisTemplate.opsForHash.delete()可以删除散列中指定的key

redisTemplate.delete则可以直接删除指定的散列

批量删除

Set keys = redisTemplate.keys(RedisHashKey.REFUSE_GET_CARD+"*");
redisTemplate.delete(keys);

redisTemplate opsForHash keys

Set<Object> object = redisTemplate.opsForHash().keys(RedisHashKey.REFUSE_GET_CARD+x_customer_id);

https://blog.csdn.net/suo082407128/article/details/86231433

分布式锁

分布式锁是控制分布式系统或不同系统之间共同访问共享资源的一种锁实现,如果不同的系统或同一个系统的不同主机之间共享了某一个资源时,往往通过互斥来防止彼此干扰

分布式锁设计目的
可以保证在分布式部署的应用集群中,同一个方法的同一操作只被同一台机器上的一个线程执行。

狂神说Java之redis视频链接 :
https://www.bilibili.com/video/BV1S54y1R7SB?p=36&spm_id_from=pageDriver

猜你喜欢

转载自blog.csdn.net/fggsgnhz/article/details/114993716
今日推荐