专栏首页阿dai_linuxRedis介绍与安装 原

Redis介绍与安装 原

21.9 Redis介绍

  • Redis和Memcached类似,也属于k-v数据存储
  • Redis官网 redis.io,当前最新稳定版4.0.1
  • 支持更多value类型,除了和string外,还支持hash、lists(链表)、sets(集合)和sorted sets(有序集合)
  • redis使用了两种文件格式:全量数据(RDB)和增量请求(aof)。全量数据格式是把内存中的数据写入磁盘,便于下次读取文件进行加载。增量请求文件则是把内存中的数据序列化为操作请求,用于读取文件进行replay得到数据,这种类似于mysql binlog。
  • redis的存储分为内存存储、磁盘存储和log文件三部分

21.10-22.12 Redis安装

[root@adailinux src]# pwd
/usr/local/src
[root@adailinux src]# wget http://download.redis.io/releases/redis-4.0.2.tar.gz

[root@adailinux src]# tar zxf redis-4.0.2.tar.gz  

[root@adailinux src]# cd redis-4.0.2 

直接make就可以:
[root@adailinux redis-4.0.2]# make

[root@adailinux redis-4.0.2]# echo $?
0

[root@adailinux redis-4.0.2]# which redis-cli
/usr/local/redis/bin/redis-cli
##Redis默认安装位置

Redis相关命令:
[root@adailinux redis-4.0.2]# ls /usr/local/redis/bin/
redis-benchmark  redis-check-aof  redis-check-rdb  redis-cli  redis-sentinel  redis-server

安装方法请看这里:https://redis.io/download

配置

[root@adailinux redis-4.0.2]# cp /usr/local/src/redis-4.0.2/redis.conf /etc/  

[root@adailinux ~]# vim /etc/redis.conf
daemonize yes          #yes表示后台启动;no表示前台启动
pidfile /var/run/redis_6379.pid  #pid存放位置
loglevel notice        
#指定日志级别:debug(调试,排错)、verbose(冗长的)、notice、warning
#debug适合排查错误时使用,错误排查完毕后要换到notice,避免产生大量日志浪费系统空间  
logfile "/tmp/logs/redis.log"  #定义日志存放路径  
databases 16   
#Redis有库的概念,默认在0库
dir /data/redis     #定义rdb、aof文件的存放位置
appendonly yes          #开启aof日志,开启后会在dir定义的目录生成appendonly.aof文件  
appendfsync everysec      #指定记录日志的规则:always(只要有变动就记录)、everysec(每秒记录一次)、no(不记录)

创建dir指定的目录:
[root@adailinux ~]# mkdir /data/redis

配置内核参数:
[root@adailinux redis-4.0.2]# sysctl vm.overcommit_memory=1
[root@adailinux redis-4.0.2]#  echo never > /sys/kernel/mm/transparent_hugepage/enabled

加入开机启动:
[root@adailinux redis-4.0.2]# vim /etc/rc.local
sysctl vm.overcommit_memory=1
echo never > /sys/kernel/mm/transparent_hugepage/enabled


[root@adailinux src]# pwd
/usr/local/src/redis-4.0.2/src
[root@adailinux src]# ./redis-server /etc/redis.conf

[root@adailinux src]# ps aux |grep redis
root      9191  0.1  0.4 145244  2184 ?        Ssl  13:43   0:00 ./redis-server 127.0.0.1:6379
root      9196  0.0  0.1 112664   972 pts/0    R+   13:44   0:00 grep --color=auto redis
[root@adailinux src]# netstat -lntp |grep redis
tcp        0      0 127.0.0.1:6379          0.0.0.0:*               LISTEN      9191/./redi-server 

在启动Redis的时候遇到以下报错:

[root@adailinux redis-4.0.2]# redis-server /etc/redis.conf

*** FATAL CONFIG FILE ERROR ***
Reading the configuration file, at line 194
>>> 'always-show-logo yes'
Bad directive or wrong number of arguments

经过搜索在官方社区看到如下信息:

后来想起自己的pc上之前安装过Redis,于是执行如下命令:

[root@adailinux redis-4.0.2]# redis-server -v
Redis server v=3.2.11 sha=00000000:0 malloc=jemalloc-4.0.3 bits=64 build=54afcd59a28295d6

查看到有两个版本的Redis,豁然开朗,将原始版本(Redis v3.2.11),清除Redis v3.2.11(make clean),并删除/user/local/redis。然后重新安装Redis v4.0,但是另一个问题出现了、安装路径变了,无法直接执行redis-server命令,于是进行如下操作:

[root@adailinux ~]# which redis-server
/usr/local/bin/redis-server
[root@adailinux ~]# mkdir -p /usr/local/redis/bin
[root@adailinux ~]# cp /usr/local/bin/* /usr/local/redis/bin/

至此问题迎刃而解,成功启动Redis!!!

Redis持久化

  • Redis提供了两种持久化的方式,分别是RDB(Redis DataBase)和AOF(Append Only File)
  • RDB,简而言之,就是在不同的时间点,将redis存储的数据生成快照并存储到磁盘等介质上。
  • AOF,则是换了一个角度来实现持久化,那就是将redis执行过的所有写指令记录下来,在下次redis重新启动时,只要把这些写指令从前到后再重复执行一遍,就可以实现数据恢复了。
  • 其实RDB和AOF两种方式也可以同时使用,在这种情况下,如果redis重启的话,则会优先采用AOF方式来进行数据恢复,这是因为AOF方式的数据恢复完整度更高。
  • 如果你没有数据持久化的需求,也完全可以关闭RDB和AOF方式,这样的话,redis将变成一个纯内存数据库,就像memcache一样。

Redis持久化相关参数

  • save 900 1 #表示每15分钟且至少有1个key改变,就触发一次持久化 
  • save 300 10 #表示每5分钟且至少有10个key改变,就触发一次持久化
  • save 60 10000 #表示每60秒至少有10000个key改变,就触发一次持久
  • save “” #这样可以禁用rdb持久化
  • appendonly yes #如果是yes,则开启aof持久化
  • appendfilename “appendonly.aof” # 指定aof文件名字
  • appendfsync everysec #指定fsync()调用模式,有三种no(不调用fsync),always(每次写都会调用fsync),everysec(每秒钟调用一次fsync)。第一种最快,第二种数据最安全,但性能会差一些,第三种为这种方案,默认为第三种。

Redis数据类型

string

string为最简单的类型,与Memcached一样的类型,一个key对应一个value,其支持的操作与Memcached的操作类似,它的功能更丰富。设置可以存二进制的对象。

[root@adailinux ~]# redis-cli 
127.0.0.1:6379> set mykey 123 
OK
127.0.0.1:6379> get mykey
"123"
127.0.0.1:6379> mset k1 a k2 b k3 c
OK
127.0.0.1:6379> mget k1 k2 k3
1) "a"
2) "b"
3) "c"

list

  • list是一个链表结构,主要功能是push、pop、获取一个范围的所有值等等。操作中key理解为链表的名字。
  • 使用list结构,我们可以轻松地实现最新消息排行等功能(比如新浪微博的 TimeLine )。list的另一个应用就是消息队列,可以利用list的push操作,将任务存在list中,然后工作线程再用pop操作将任务取出进行执行。
[root@adailinux ~]# redis-cli
添加一条list数据:
127.0.0.1:6379> lpush list1 "adai"
(integer) 1
127.0.0.1:6379> lpush list1 "adai1"
(integer) 2
127.0.0.1:6379> lpush list1 "adai2"
(integer) 3

查看指定list的数据:
127.0.0.1:6379> lrange list1 0 -1
1) "adai2"
2) "adai1"
3) "adai"
#0表示第一个,-1表示末尾  

取出一条数据:
127.0.0.1:6379> lpop list1
"adai2"
127.0.0.1:6379> lrange list1 0 -1
1) "adai1"
2) "adai"

set

set是集合,和我们数学中的集合概念相似,对集合的操作有添加删除元素,有对多个集合求交并差等操作。操作中key理解为集合的名字。比如在微博应用中,可以将一个用户所有的关注人存在一个集合中,将其所有粉丝存在一个集合。因为Redis非常人性化的为集合提供了求交集、并集、差集等操作,那么就可以非常方便的实现如共同关注、共同喜好、二度好友等功能,对上面的所有集合操作,你还可以使用不同的命令选择将结果返回给客户端还是存集到一个新的集合中。

[root@adailinux ~]# redis-cli
添加一条set数据:
127.0.0.1:6379> sadd set1 a
(integer) 1
127.0.0.1:6379> sadd set1 b
(integer) 1
127.0.0.1:6379> sadd set1 c
(integer) 1

查看set数据:
127.0.0.1:6379> SMEMBERS set1
1) "a"
2) "b"
3) "c"

删除一条数据:
127.0.0.1:6379> SREM set1 c
(integer) 1
127.0.0.1:6379> SMEMBERS set1
1) "a"
2) "b"

127.0.0.1:6379> sadd set2 a
(integer) 1
127.0.0.1:6379> sadd set2 b
(integer) 1
127.0.0.1:6379> sadd set2 d
(integer) 1

查看并集:
127.0.0.1:6379> sunion set1 set2
1) "d"
2) "a"
3) "b"

求交集:
127.0.0.1:6379> sinter set1 set2
1) "a"
2) "b"

求差集:
127.0.0.1:6379> SDIFF set2 set1
1) "d"
###在此需要注意set数据的顺序,需要将数据多的方前面

sort set

sorted set是有序集合,它比set多了一个权重参数score,使得集合中的元素能够按score进行有序排列,比如一个存储全班同学成绩的Sorted Sets,其集合value可以是同学的学号,而score就可以是其考试得分,这样在数据插入集合的时候,就已经进行了天然的排序。

[root@adailinux ~]# redis-cli 
127.0.0.1:6379> zadd seta 12 adai
(integer) 1
127.0.0.1:6379> zadd seta 13 "aming  aning"
(integer) 1
127.0.0.1:6379> zadd seta 22 "aliang"
(integer) 1
127.0.0.1:6379> zadd seta 6  "asa"
(integer) 1

查看数据
127.0.0.1:6379> zrange seta 0 -1
1) "asa"
2) "adai"
3) "aming  aning"
4) "aliang"
#数据的value根据score大小排序

倒序查看:
127.0.0.1:6379> zrevrange  seta  0 -1
1) "aliang"
2) "aming  aning"
3) "adai"
4) "asa"

hash

在 Memcached 中,我们经常将一些结构化的信息打包成hashmap,在客户端序列化后存储为一个字符串的值(一般是JSON格式),比如用户的昵称、年龄、性别、积分等。

[root@adailinux ~]# redis-cli 
127.0.0.1:6379> hset hash1 name adai
(integer) 1
127.0.0.1:6379> hset hash1 age 25
(integer) 1
127.0.0.1:6379> hset hash1 weight 80
(integer) 1
127.0.0.1:6379> hget hash1 name
"adai"
127.0.0.1:6379> hget hash1 age
"25"
127.0.0.1:6379> hget hash1 weight
"80"
127.0.0.1:6379> hgetall hash1
1) "name"
2) "adai"
3) "age"
4) "25"
5) "weight"
6) "80"

21.13-22.15 Redis常用操作

string 、list类型数据操作

  • string
[root@adailinux ~]# redis-cli 
127.0.0.1:6379> set key1 adai
OK
127.0.0.1:6379> set key1 linux
OK
127.0.0.1:6379> get key1
"linux"
#使用set添加数据,新值会替代旧值

127.0.0.1:6379> setnx key1 aaa
(integer) 0
127.0.0.1:6379> setnx key3 aaa
(integer) 1
127.0.0.1:6379> get key3
"aaa"
#使用setnx添加数据时,会检测数据是否存在
#0表示该值已经存在;1表示该值不存在,并添加到数据库中

127.0.0.1:6379> set key3 aaa ex 10
OK
127.0.0.1:6379> get key3
(nil)
#ex:=expire,设定数据的过期时间
#10s后key3消失

127.0.0.1:6379> setex key 60 aaa
OK
#设定数据保存时长,如果数据已经存在,则会重新赋值
  • list
127.0.0.1:6379> lpush list2 aaa
(integer) 1
127.0.0.1:6379> lpush list2 bbb
(integer) 2
127.0.0.1:6379> lrange list2 0 -1
1) "bbb"
2) "aaa"
127.0.0.1:6379> lpop list2
"bbb"
#先添加的数据排在下面
#lpop取值时先取上面的值
#lpop=left pop :从左侧取一个数据

127.0.0.1:6379> lrange list2 0 -1
1) "ddd"
2) "ccc"
3) "aaa"
127.0.0.1:6379> rpop list2
"aaa"
#rpop=right pop:从右侧取一个数据
#rpop取值时从下面开始取

**注意:** 使用l/rpop取值后,数据库中相应的值会消失


插入数据:
127.0.0.1:6379> linsert list2 after ccc 333
(integer) 3
127.0.0.1:6379> lrange list2 0 -1
1) "ddd"
2) "ccc"
3) "333"
#在“ccc”后面插入数据“333”

更改数据:
127.0.0.1:6379> lset list2 1 222
OK
127.0.0.1:6379> lrange list2 0 -1
1) "ddd"
2) "222"
3) "333"

查看某条数据:
127.0.0.1:6379> lindex list2 0
"ddd"

查看某列表中数据条数:
127.0.0.1:6379> llen list2
(integer) 3
#llen=list length

Redis中关于集合的操作

在集合中添加数据:
127.0.0.1:6379> sadd set1 aaa bbb ccc
(integer) 3

查看集合汇总所有数据:
127.0.0.1:6379> SMEMBERS set1
1) "aaa"
2) "a"
3) "bbb"
4) "b"
5) "ccc"

删除指定素:
127.0.0.1:6379> srem set1 a b
(integer) 2
127.0.0.1:6379> SMEMBERS set1
1) "aaa"
2) "bbb"
3) "ccc"

随机取出两个元素:
127.0.0.1:6379> spop set1 2
1) "bbb"
2) "aaa"
127.0.0.1:6379> SMEMBERS set1
1) "ccc"
#spop set1后面不跟参数的话会随机取出一个值

注意:数据取出后,该数据将会在该集合中被删除

取差集:
127.0.0.1:6379> SMEMBERS set1
1) "aaa"
2) "mmm"
3) "ddd"
4) "bbb"
5) "ccc"
127.0.0.1:6379> SMEMBERS set2
1) "a"
2) "b"
3) "d"
4) "aaa"
5) "eee"
6) "ddd"
7) "ccc"
8) "bbb"
9) "fff"

127.0.0.1:6379> sdiff set1 set2
1) "mmm"
127.0.0.1:6379> sdiff set2 set1
1) "d"
2) "a"
3) "eee"
4) "b"
5) "fff"

注意:
取差集的规则--把哪个集合放在前面就以哪个集合为标准
即,只输出前面集合中不同元素


将差集存储到新的集合:
127.0.0.1:6379> sdiffstore set3 set2 set1 
(integer) 5
127.0.0.1:6379> SMEMBERS set3
1) "d"
2) "a"
3) "eee"
4) "b"
5) "fff"
#set3:存储位置;set2和set1为取差集的两个集合

取交集:
127.0.0.1:6379> sinter set1 set2
1) "aaa"
2) "ddd"
3) "bbb"
4) "ccc"

存储交集:
127.0.0.1:6379> sinterstore set4 set1 set2
(integer) 4
127.0.0.1:6379> SMEMBERS set4
1) "aaa"
2) "ccc"
3) "bbb"
4) "ddd"
#set4为存储位置

取并集:
127.0.0.1:6379> sunion set1 set2
 1) "eee"
 2) "ddd"
 3) "bbb"
 4) "ccc"
 5) "b"
 6) "aaa"
 7) "d"
 8) "mmm"
 9) "a"
10) "fff"

存储并集:
127.0.0.1:6379> sunionstore set5 set1 set2
(integer) 10
127.0.0.1:6379> SMEMBERS set5
 1) "eee"
 2) "ddd"
 3) "bbb"
 4) "ccc"
 5) "b"
 6) "aaa"
 7) "d"
 8) "mmm"
 9) "a"
10) "fff"

判断一个元素是否属于某集合:
127.0.0.1:6379> sismember set1 a
(integer) 0
127.0.0.1:6379> sismember set1 aaa
(integer) 1

从某集合随机取指定数量的元素,但不删除:
127.0.0.1:6379> srandmember set1 3
1) "ddd"
2) "bbb"
3) "ccc"
127.0.0.1:6379> SMEMBERS set1
1) "aaa"
2) "mmm"
3) "ddd"
4) "bbb"
5) "ccc"

有序集合

创建有序集合:
127.0.0.1:6379> zadd zseta 11 123
(integer) 1
127.0.0.1:6379> zadd zseta 5 456
(integer) 1
#“11”和“5”分别为元素“123”和“456”的score,系统根据score对元素进行排序

查看:
127.0.0.1:6379> zrange zseta 0 -1
1) "456"
2) "123"

删除指定元素:
127.0.0.1:6379> zrem zseta 123
(integer) 1
127.0.0.1:6379> zrange zseta 0 -1
1) "456"

查看元素:
127.0.0.1:6379> zrange zseta 0 -1
1) "aaa"
2) "bbb"
3) "456"
4) "ccc"
127.0.0.1:6379> zrange zseta 0 -1 withscores
1) "aaa"
2) "2"
3) "bbb"
4) "3"
5) "456"
6) "5"
7) "ccc"
8) "8"
#withscores:同时显示各元素对应的score

查看元素的索引值(即,第几个元素,从0开始计数):
127.0.0.1:6379> zrank zseta ccc
(integer) 3

同上,不同的是该索引值是按元素的score进行排序的:
127.0.0.1:6379> zrevrank zseta aaa
(integer) 3
127.0.0.1:6379> zrevrank zseta ccc
(integer) 0

反序显示所有元素:
127.0.0.1:6379> zrevrange zseta 0 -1
1) "ccc"
2) "456"
3) "bbb"
4) "aaa"

127.0.0.1:6379> zrevrange zseta 0 -1 withscores
1) "ccc"
2) "8"
3) "456"
4) "5"
5) "bbb"
6) "3"
7) "aaa"
8) "2"

查看集合中元素个数:
127.0.0.1:6379> zcard zseta
(integer) 4

查看某分值范围内的元素个数:
127.0.0.1:6379> zcount zseta 1 10
(integer) 4
127.0.0.1:6379> zcount zseta 1 5

查看某分值范围内的元素及分值:
127.0.0.1:6379> zrangebyscore zseta 1 5 
1) "aaa"
2) "bbb"
3) "456"
127.0.0.1:6379> zrangebyscore zseta 1 5 withscores
1) "aaa"
2) "2"
3) "bbb"
4) "3"
5) "456"
6) "5"

删除指定索引范围的元素:
127.0.0.1:6379> zrange zseta 0 -1
1) "aaa"
2) "bbb"
3) "456"
4) "ccc"
127.0.0.1:6379> zremrangebyrank zseta 0 1
(integer) 2
127.0.0.1:6379> zrange zseta 0 -1
1) "456"
2) "ccc"

删除指定分值范围内的元素:
127.0.0.1:6379> zremrangebyscore zseta 1 5
(integer) 1
127.0.0.1:6379> zrange zseta 0 -1
1) "ccc"

hash类型数据的操作

添加数据:
127.0.0.1:6379> hset hseta a 1
(integer) 1

批量添加数据:
127.0.0.1:6379> hmset hseta b 2 c 3 d 4
OK

查看指定数据的值:
127.0.0.1:6379> hget hseta b
"2"


批量查看指定数据的值:
127.0.0.1:6379> hmget hseta b c
1) "2"
2) "3"

查看所有数据:
127.0.0.1:6379> HGETALL hseta
1) "a"
2) "1"
3) "b"
4) "2"
5) "c"
6) "3"
7) "d"
8) "4"

删除指定数据:
127.0.0.1:6379> hdel hseta b c
(integer) 2
127.0.0.1:6379> HGETALL hseta
1) "a"
2) "1"
3) "d"
4) "4"

打印所有的key:
127.0.0.1:6379> hkeys hseta
1) "a"
2) "d"

打印所有的value:
127.0.0.1:6379> hvals hseta
1) "1"
2) "4"

查看有几个filed:
127.0.0.1:6379> hlen hseta
(integer) 2

(adsbygoogle = window.adsbygoogle || []).push({});

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 架构设计 -- 服务降级

    降级是系统保护的重要手段,保证系统的高可用,简单理解,降级就是丢车保帅,在系统压力极大时,暂时不做非必要动作,以保证系统核心功能的正常。

    dys
  • 微信小程序登录那些事

    最近团队在开发一款小程序,都是新手,一边看文档,一边开发。在开发中会遇到各种问题,今天把小程序登录这块的流程整理下,做个记录。

    猿天地
  • 高并发案例 - 库存超发问题

    第一个购买请求来了,想买2个,从数据库中读取到库存有3个,数量够,可以买,减库存后,更新库存为1个。

    dys
  • Redis 分布式锁进化史解读+缺陷分析

    近两年来微服务变得越来越热门,越来越多的应用部署在分布式环境中,在分布式环境中,数据一致性是一直以来需要关注并且去解决的问题,分布式锁也就成为了一种广泛使用的技...

    用户1655470
  • 架构设计原则 - 高并发

    实际常用:应用无状态,配置文件有状态,例如,不同的机房读取不同的配置文件,通过配置中心指定。

    dys
  • 数据服务开发经验

    有状态服务或者说数据服务,上线遇到问题很棘手,回滚无济于事;而且数据加载通常都很慢,部署时间长;最终导致不敢修改代码,谨小慎微;服务质量也是能忍就忍,不愿意深度...

    lyb-geek
  • Redis这么快你知道吗?

    Redis是一个由ANSI C语言编写,性能优秀、支持网络、可持久化的K-K内存数据库,并提供多种语言的API。它常用的类型主要是 String、L...

    数据和云
  • springcloud用redis做session共享出现类反序列化失败问题

    前段时间项目组打算把公司的一个老项目当做现有系统的子模块,现有系统的技术框架主要是采用springcloud,用redis来做session共享。老项目的用户鉴...

    lyb-geek
  • 16-Flink-Redis-Sink

    流式计算中,我们经常有一些场景是消费Kafka数据,进行处理,然后存储到其他的数据库或者缓存或者重新发送回其他的消息队列中。

    王知无
  • 分布式限流

    在单机系统中,限流逻辑直接放在服务接口中即可,Guava RateLimiter 可以方便的实现。

    dys

扫码关注云+社区

领取腾讯云代金券