目录

Twisted

Redis

RabbitMQ

 


Twisted

 

事件驱动

事件驱动分为两个部分:第一,注册事件;第二,触发事件。

自定义事件启动框架,命名为:“弑君者”:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
# event_drive.py
 
event_list = []
 
 
def run():
    for event in event_list:
        obj = event()
        obj.execute()
 
 
class BaseHandler(object):
    """
    用户必须继承该类,从而规范所有类的方法(类似于接口的功能)
    """
    def execute(self):
        raise Exception('you must overwrite execute')
 
最牛逼的事件驱动框架

程序员使用“弑君者框架”:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
from source import event_drive
 
 
class MyHandler(event_drive.BaseHandler):
 
    def execute(self):
        print 'event-drive execute MyHandler'
 
 
event_drive.event_list.append(MyHandler)
event_drive.run()

 

Protocols

Protocols描述了如何以异步的方式处理网络中的事件。HTTP、DNS以及IMAP是应用层协议中的例子。Protocols实现了IProtocol接口,它包含如下的方法:

makeConnection               在transport对象和服务器之间建立一条连接
connectionMade               连接建立起来后调用
dataReceived                 接收数据时调用
connectionLost               关闭连接时调用
Transports

Transports代表网络中两个通信结点之间的连接。Transports负责描述连接的细节,比如连接是面向流式的还是面向数据报的,流控以及可靠性。TCP、UDP和Unix套接字可作为transports的例子。它们被设计为“满足最小功能单元,同时具有最大程度的可复用性”,而且从协议实现中分离出来,这让许多协议可以采用相同类型的传输。Transports实现了ITransports接口,它包含如下的方法:

write                   以非阻塞的方式按顺序依次将数据写到物理连接上
writeSequence           将一个字符串列表写到物理连接上
loseConnection          将所有挂起的数据写入,然后关闭连接
getPeer                 取得连接中对端的地址信息
getHost                 取得连接中本端的地址信息

将transports从协议中分离出来也使得对这两个层次的测试变得更加简单。可以通过简单地写入一个字符串来模拟传输,用这种方式来检查。

 

EchoServer

new 4.txt

代码:

 1 #!/usr/bin/env python
 2 # encoding: utf-8
 3 
 4 from twisted.internet import protocol
 5 from twisted.internet import reactor
 6 
 7 class Echo(protocol.Protocol):
 8     def dataReceived(self, data):   #只要twisted一收到数据,就会调用此方法
 9         self.transport.write(data)  #将接受到的数据发返回给客户端
10 
11 def main():
12     factory = protocol.ServerFactory()  #定义基础工厂类(定义一些公共的东西)
13     factory.protocol = Echo     #相当于socketserver中的handle
14 
15     reactor.listenTCP(8888,factory) #不允许写IP地址
16     reactor.run()
17 
18 if __name__ == '__main__':
19     main()
EchoServer

 

EchoClien

new 5.txt

代码:

 1 #!/usr/bin/env python
 2 # encoding: utf-8
 3 
 4 from twisted.internet import reactor, protocol
 5 
 6 # a client protocol
 7 
 8 class EchoClient(protocol.Protocol):
 9     """Once connected, send a message, then print the result."""
10 
11     def connectionMade(self):   #链接一建立成功,就会自动调用此方法
12         self.transport.write("hello boy!")  #向服务端发数据
13 
14     def dataReceived(self, data):   #收到数据调用从方法
15         "As soon as any data is received, write it back."
16         print("Server said:", data)
17         self.transport.loseConnection() #将所有挂起的数据写入,然后关闭连接
18 
19     def connectionLost(self, reason):#关闭连接时调用
20         print("connection lost")
21 
22 class EchoFactory(protocol.ClientFactory):
23     protocol = EchoClient   #相当于handle
24 
25     def clientConnectionFailed(self, connector, reason):    #如果链接失败,自动调用此方法
26         print("Connection failed - goodbye!")
27         reactor.stop()
28 
29     def clientConnectionLost(self, connector, reason):  #链接过程中断开,自动调用次方法
30         print("Connection lost - goodbye!")
31         reactor.stop()
32 
33 
34 # this connects the protocol to a server running on port 8000
35 def main():
36     f = EchoFactory()
37     reactor.connectTCP("127.0.0.1", 8888, f)
38     reactor.run()
39 
40 # this only runs if the module was *not* imported
41 if __name__ == '__main__':
42     main()
EchoClient

 


Redis

redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。在此基础上,redis支持各种不同方式的排序。与memcached一样,为了保证效率,数据都是缓存在内存中。区别的是redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。

Redis 是一个高性能的key-value数据库。 redis的出现,很大程度补偿了memcached这类key/value存储的不足,在部 分场合可以对关系数据库起到很好的补充作用。它提供了Java,C/C++,C#,PHP,JavaScript,Perl,Object-C,Python,Ruby,Erlang等客户端,使用很方便。[1]

Redis支持主从同步。数据可以从主服务器向任意数量的从服务器上同步,从服务器可以是关联其他从服务器的主服务器。这使得Redis可执行单层树复制。存盘可以有意无意的对数据进行写操作。由于完全实现了发布/订阅机制,使得从数据库在任何地方同步树时,可订阅一个频道并接收主服务器完整的消息发布记录。同步对读取操作的可扩展性和数据冗余很有帮助。

redis的官网地址,非常好记,是redis.io。(特意查了一下,域名后缀io属于国家域名,是british Indian Ocean territory,即英属印度洋领地)

目前,Vmware在资助着redis项目的开发和维护。

 

Redis安装和基本使用

wget http://download.redis.io/releases/redis-3.0.6.tar.gz
tar xzf redis-3.0.6.tar.gz
cd redis-3.0.6
make

启动服务端

在redis-3.0.6目录下
src/redis-server

启动客户端

在redis-3.0.6目录下
src/redis-cli
redis> set foo bar
OK
redis> get foo
"bar"

Python操作Redis

sudo pip install redis
or
sudo easy_install redis
or
源码安装
 
详见:https://github.com/WoLpH/redis-py

 

API使用

redis-py 的API的使用可以分类为:

  • 连接方式
  • 连接池
  • 操作
    • String 操作
    • Hash 操作
    • List 操作
    • Set 操作
    • Sort Set 操作
  • 管道
  • 发布订阅

1、操作模式

redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
import redis
 
r = redis.Redis(host=redis服务器IP地址, port=6379)
r.set('foo', 'Bar')
print (r.get('foo'))

2、连接池

redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
import redis
 
pool = redis.ConnectionPool(host=redis服务器IP, port=6379)
 
r = redis.Redis(connection_pool=pool)
r.set('foo', 'Bar')
print (r.get('foo'))

3、操作

String操作,redis中的String在在内存中按照一个name对应一个value来存储。如图:

 

set(name, value, ex=None, px=None, nx=False, xx=False)

在Redis中设置值,默认,不存在则创建,存在则修改
参数:
     ex,过期时间(秒)
     px,过期时间(毫秒)
     nx,如果设置为True,则只有name不存在时,当前set操作才执行
     xx,如果设置为True,则只有name存在时,当前前set操作才执行

setnx(name, value):设置值,只有name不存在时,执行设置操作(添加)

 

setex(name, value, time):设置值

参数:

time,过期时间(数字秒 或 timedelta对象)

 

psetex(name,  value,time_ms):设置值

参数:

time_ms,过期时间(数字毫秒 或 timedelta对象)

 

mset(*args, **kwargs):批量设置值

如:

mset(k1='v1', k2='v2')

mget({'k1': 'v1', 'k2': 'v2'})

 

get(name):获取值

 

mget(keys, *args):批量获取

如:

mget('ylr', 'wupeiqi')

r.mget(['ylr', 'wupeiqi'])

 

getset(name, value):设置新值并获取原来的值

 

getrange(key, start, end):获取子序列(根据字节获取,非字符)

参数:

name,Redis 的 name

start,起始位置(字节)

end,结束位置(字节)

如: "李小明" ,0-3表示 "李"

 

setrange(name, offset, value):修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)

参数:

offset,字符串的索引,字节(一个汉字三个字节)

value,要设置的值

 

setbit(name, offset, value):对name对应值的二进制表示的位进行操作

参数:
  name,redis的name
  offset,位的索引(将值变换成二进制后再进行索引)
  value,值只能是 1 或 0

 

getbit(name, offset):获取name对应的值的二进制表示中的某位的值 (0或1)

 

bitcount(key, start=None, end=None):获取name对应的值的二进制表示中 1 的个数

参数:

key,Redis的name

start,位起始位置

end,位结束位置

 

bitop(operation, dest, *keys):获取多个值,并将值做位运算,将最后的结果保存至新的name对应的值

参数:

operation,AND(并) 、 OR(或) 、 NOT(非) 、 XOR(异或)

dest, 新的Redis的name

*keys,要查找的Redis的name

 

strlen(name):返回name对应值的字节长度(一个汉字3个字节)

 

incr(self, name, amount=1):自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。

参数:

name,Redis的name

amount,自增数(必须是整数)

注:同incrby

 

incrbyfloat(self, name, amount=1.0):自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。

参数:

name,Redis的name

amount,自增数(浮点型)

 

decr(self, name, amount=1):自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。

参数:

name,Redis的name

amount,自减数(整数)

 

append(key, value):在redis name对应的值后面追加内容

参数:

key, redis的name

value, 要追加的字符串

 

Hash操作,redis中Hash在内存中的存储格式如下图:

 

hset(name, key, value):name对应的hash中设置一个键值对(不存在,则创建;否则,修改)

参数:

name,redis的name

key,name对应的hash中的key

value,name对应的hash中的value

注:

hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)

 

hmset(name, mapping):在name对应的hash中批量设置键值对

参数:

name,redis的name

mapping,字典,如:{'k1':'v1', 'k2': 'v2'}

 

hget(name,key):在name对应的hash中获取根据key获取value

 

hmget(name, keys, *args):在name对应的hash中获取多个key的值

参数:

name,reids对应的name

keys,要获取key集合,如:['k1', 'k2', 'k3']

*args,要获取的key,如:k1,k2,k3

 

hgetall(name):获取name对应hash的所有键值

 

hlen(name):获取name对应的hash中键值对的个数

 

hkeys(name):获取name对应的hash中所有的key的值

 

hvals(name):获取name对应的hash中所有的value的值

 

hexists(name, key):检查name对应的hash是否存在当前传入的key

 

hdel(name,*keys):将name对应的hash中指定key的键值对删除

 

hincrby(name, key, amount=1):自增name对应的hash中的指定key的值,不存在则创建key=amount

参数:

name,redis中的name

key, hash对应的key

amount,自增数(整数)

 

hincrbyfloat(name, key, amount=1.0):自增name对应的hash中的指定key的值,不存在则创建key=amount

参数:

name,redis中的name

key, hash对应的key

amount,自增数(浮点数)

自增name对应的hash中的指定key的值,不存在则创建key=amount

 

hscan(name, cursor=0, match=None, count=None):增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆

参数:

name,redis的name

cursor,游标(基于游标分批取获取数据)

match,匹配指定key,默认None 表示所有的key

count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数

 

hscan_iter(name, match=None, count=None):利用yield封装hscan创建生成器,实现分批去redis中获取数据

参数:

match,匹配指定key,默认None 表示所有的key

count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数

 

List操作,redis中的List在在内存中按照一个name对应一个List来存储。如图:

 

lpush(name,values):在name对应的list中添加元素,每个新的元素都添加到列表的最左边

如:

r.lpush('oo', 11,22,33)

保存顺序为: 33,22,11

扩展:

rpush(name, values) 表示从右向左操作

 

lpushx(name,value):在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边

更多:

rpushx(name, value) 表示从右向左操作

 

llen(name):name对应的list元素的个数

 

linsert(name, where, refvalue, value)):在name对应的列表的某一个值前或后插入一个新值

参数:

name,redis的name

where,BEFORE或AFTER

refvalue,标杆值,即:在它前后插入数据

value,要插入的数据

 

r.lset(name, index, value):对name对应的list中的某一个索引位置重新赋值

参数:

name,redis的name

index,list的索引位置

value,要设置的值

 

r.lrem(name, value, num):在name对应的list中删除指定的值

参数:

name,redis的name

value,要删除的值

num,  num=0,删除列表中所有的指定值;

num=2,从前到后,删除2个;

num=-2,从后向前,删除2个

 

lpop(name):在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素

更多:

rpop(name) 表示从右向左操作

 

lindex(name, index):在name对应的列表中根据索引获取列表元素

 

lrange(name, start, end):在name对应的列表分片获取数据

参数:

name,redis的name

start,索引的起始位置

end,索引结束位置

 

ltrim(name, start, end):在name对应的列表中移除没有在start-end索引之间的值

参数:

name,redis的name

start,索引的起始位置

end,索引结束位置

 

rpoplpush(src, dst):从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边

参数:

src,要取数据的列表的name

dst,要添加数据的列表的name

 

blpop(keys, timeout):将多个列表排列,按照从左到右去pop对应列表的元素

参数:

keys,redis的name的集合

timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞

更多:

r.brpop(keys, timeout),从右向左获取数据

 

brpoplpush(src, dst, timeout=0):从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧

参数:

src,取出并要移除元素的列表对应的name

dst,要插入元素的列表对应的name

timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞

 

自定义增量迭代

# 由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
    # 1、获取name对应的所有列表
    # 2、循环列表
# 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能:
 
def list_iter(name):
    """
    自定义redis列表增量迭代
    :param name: redis中的name,即:迭代name对应的列表
    :return: yield 返回 列表元素
    """
    list_count = r.llen(name)
    for index in xrange(list_count):
        yield r.lindex(name, index)
 
# 使用
for item in list_iter('pp'):
    print item

 

Set操作,Set集合就是不允许重复的列表

 

sadd(name,values):name对应的集合中添加元素

 

scard(name):获取name对应的集合中元素个数

 

sdiff(keys, *args):在第一个name对应的集合中且不在其他name对应的集合的元素集合

 

sdiffstore(dest, keys, *args):获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中

 

sinter(keys, *args):# 获取多一个name对应集合的并集

 

sinterstore(dest, keys, *args):获取多一个name对应集合的并集,再讲其加入到dest对应的集合中

 

sismember(name, value):检查value是否是name对应的集合的成员

 

smembers(name):获取name对应的集合的所有成员

 

smove(src, dst, value):将某个成员从一个集合中移动到另外一个集合

 

spop(name):从集合的右侧(尾部)移除一个成员,并将其返回

 

srandmember(name, numbers):从name对应的集合中随机获取 numbers 个元素

 

srem(name, values):在name对应的集合中删除某些值

 

sunion(keys, *args):获取多一个name对应的集合的并集

 

sunionstore(dest,keys, *args):获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中

 

sscan(name, cursor=0, match=None, count=None)
sscan_iter(name, match=None, count=None)

同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大

 

有序集合,在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。

 

zadd(name, *args, **kwargs):在name对应的有序集合中添加元素

 

zcard(name):获取name对应的有序集合元素的数量

 

zcount(name, min, max):获取name对应的有序集合中分数 在 [min,max] 之间的个数

 

zincrby(name, value, amount):自增name对应的有序集合的 name 对应的分数

 

r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float):按照索引范围获取name对应的有序集合的元素

参数:

name,redis的name

start,有序集合索引起始位置(非分数)

end,有序集合索引结束位置(非分数)

desc,排序规则,默认按照分数从小到大排序

withscores,是否获取元素的分数,默认只获取元素的值

score_cast_func,对分数进行数据转换的函数

更多:

从大到小排序

zrevrange(name, start, end, withscores=False, score_cast_func=float)

按照分数范围获取name对应的有序集合的元素

zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)

从大到小排序

zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)

 

zrank(name, value):获取某个值在 name对应的有序集合中的排行(从 0 开始)

更多:

# zrevrank(name, value),从大到小排序

 

zrangebylex(name, min, max, start=None, num=None):

当有序集合的所有成员都具有相同的分值时,有序集合的元素会根据成员的 值 (lexicographical ordering)来进行排序,而这个命令则可以返回给定的有序集合键 key 中, 元素的值介于 min 和 max 之间的成员

对集合中的每个成员进行逐个字节的对比(byte-by-byte compare), 并按照从低到高的顺序, 返回排序后的集合成员。 如果两个字符串有一部分内容是相同的话, 那么命令会认为较长的字符串比较短的字符串要大

# 参数:

# name,redis的name

# min,左区间(值)。 + 表示正无限; - 表示负无限; ( 表示开区间; [ 则表示闭区间

# min,右区间(值)

# start,对结果进行分片处理,索引位置

# num,对结果进行分片处理,索引后面的num个元素

# 如:

# ZADD myzset 0 aa 0 ba 0 ca 0 da 0 ea 0 fa 0 ga

# r.zrangebylex('myzset', "-", "[ca") 结果为:['aa', 'ba', 'ca']

# 更多:

# 从大到小排序

# zrevrangebylex(name, max, min, start=None, num=None)

 

zrem(name, values):删除name对应的有序集合中值是values的成员

 

zremrangebyrank(name, min, max):根据排行范围删除

 

zremrangebyscore(name, min, max):根据分数范围删除

 

zremrangebylex(name, min, max):根据值返回删除

 

zscore(name, value):获取name对应有序集合中 value 对应的分数

 

zinterstore(dest, keys, aggregate=None):获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作

aggregate的值为:  SUM  MIN  MAX

 

zunionstore(dest, keys, aggregate=None):获取两个有序集合的并集,如果遇到相同值不同分数,则按照aggregate进行操作

aggregate的值为:  SUM  MIN  MAX

 

zscan(name, cursor=0, match=None, count=None, score_cast_func=float)
zscan_iter(name, match=None, count=None,score_cast_func=float)

同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作

 

其他常用操作

delete(*names):根据删除redis中的任意数据类型

 

exists(name):检测redis的name是否存在

 

keys(pattern='*'):根据模型获取redis的name

更多:

KEYS * 匹配数据库中所有 key 。

KEYS h?llo 匹配 hello , hallo 和 hxllo 等。

KEYS h*llo 匹配 hllo 和 heeeeello 等。

KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo

 

expire(name ,time):为某个redis的某个name设置超时时间

 

rename(src, dst):对redis的name重命名为

 

move(name, db)):将redis的某个值移动到指定的db下

 

randomkey():随机获取一个redis的name(不删除)

 

type(name):获取name对应值的类型

 

scan(cursor=0, match=None, count=None)
scan_iter(match=None, count=None)

同字符串操作,用于增量迭代获取key

 

管道

redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
import redis
 
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
 
r = redis.Redis(connection_pool=pool)
 
# pipe = r.pipeline(transaction=False)
pipe = r.pipeline(transaction=True)
 
r.set('name', 'alex')
r.set('role', 'sb')
 
pipe.execute()

 

发布订阅

 

发布者:服务器

订阅者:Dashboad和数据处理

Demo如下:

 1 #!/usr/bin/env python
 2 # -*- coding:utf-8 -*-
 3 
 4 import redis
 5 
 6 
 7 class RedisHelper:
 8 
 9     def __init__(self):
10         self.__conn = redis.Redis(host='10.211.55.4')
11         self.chan_sub = 'fm104.5'
12         self.chan_pub = 'fm104.5'
13 
14     def public(self, msg):
15         self.__conn.publish(self.chan_pub, msg)
16         return True
17 
18     def subscribe(self):
19         pub = self.__conn.pubsub()
20         pub.subscribe(self.chan_sub)
21         pub.parse_response()
22         return pub
RedisHelper

订阅者:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
from monitor.RedisHelper import RedisHelper
 
obj = RedisHelper()
redis_sub = obj.subscribe()
 
while True:
    msg= redis_sub.parse_response()
    print msg

发布者:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
from monitor.RedisHelper import RedisHelper
 
obj = RedisHelper()
obj.public('hello')

更多参见:https://github.com/andymccurdy/redis-py/

http://doc.redisfans.com/


RabbitMQ

实现最简单的队列通信

send端

#!/usr/bin/env python
import pika
 
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
 
#声明queue
channel.queue_declare(queue='hello') 

channel.basic_publish(exchange='',
                      routing_key='hello',
                      body='Hello World!')
print(" [x] Sent 'Hello World!'")
connection.close()

receive端

import pika
 
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
channel = connection.channel()
 
channel.queue_declare(queue='hello')
 
def callback(ch, method, properties, body):
    print(" [x] Received %r" % body)
 
channel.basic_consume(callback,
                      queue='hello',
                      no_ack=True)
 
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()

 

Work Queues

 

在这种模式下,RabbitMQ会默认把p发的消息依次分发给各个消费者(c),跟负载均衡差不多

消息提供者代码

import pika
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
               'localhost'))
channel = connection.channel()
 
#声明queue
channel.queue_declare(queue='task_queue')
 
import sys
 
message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(exchange='',
                      routing_key='task_queue',
                      body=message,
                      properties=pika.BasicProperties(
                      delivery_mode = 2, 
                      ))
print(" [x] Sent %r" % message)
connection.close()

消息收取者代码

import pika,time
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
               'localhost'))
channel = connection.channel()
 
 
 
def callback(ch, method, properties, body):
    print(" [x] Received %r" % body)
    time.sleep(body.count(b'.'))
    print(" [x] Done")
    ch.basic_ack(delivery_tag = method.delivery_tag)
 
 
channel.basic_consume(callback,
                      queue='task_queue',
                      )
 
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()

 

消息持久化
#声明Queue队列时,可添加durable参数(生产者,消费者,均添加)
channel.queue_declare(queue='hello', durable=True)

 

消息公平分发

如果Rabbit只管按顺序把消息发到各个消费者身上,不考虑消费者负载的话,很可能出现,一个机器配置不高的消费者那里堆积了很多消息处理不完,同时配置高的消费者却一直很轻松。为解决此问题,可以在各个消费者端,配置perfetch=1,意思就是告诉RabbitMQ在我这个消费者当前消息还没处理完的时候就不要再给我发新消息了。

 

channel.basic_qos(prefetch_count=1)

 

带消息持久化+公平分发的完整代码

生产者端

#!/usr/bin/env python
import pika
import sys
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.queue_declare(queue='task_queue', durable=True)
 
message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(exchange='',
                      routing_key='task_queue',
                      body=message,
                      properties=pika.BasicProperties(
                         delivery_mode = 2, 
                      ))
print(" [x] Sent %r" % message)
connection.close()

消费者端

#!/usr/bin/env python
import pika
import time
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.queue_declare(queue='task_queue', durable=True)
print(' [*] Waiting for messages. To exit press CTRL+C')
 
def callback(ch, method, properties, body):
    print(" [x] Received %r" % body)
    time.sleep(body.count(b'.'))
    print(" [x] Done")
    ch.basic_ack(delivery_tag = method.delivery_tag)
 
channel.basic_qos(prefetch_count=1)
channel.basic_consume(callback,
                      queue='task_queue')
 
channel.start_consuming()

 

Publish\Subscribe(消息发布\订阅)

之前的例子都基本都是1对1的消息发送和接收,即消息只能发送到指定的queue里,但有些时候你想让你的消息被所有的Queue收到,类似广播的效果,这时候就要用到exchange了,Exchange在定义的时候是有类型的,以决定到底是哪些Queue符合条件,可以接收消息

fanout: 所有bind到此exchange的queue都可以接收消息
direct: 通过routingKey和exchange决定的那个唯一的queue可以接收消息
topic:所有符合routingKey(此时可以是一个表达式)的routingKey所bind的queue可以接收消息
表达式符号说明:#代表一个或多个字符,*代表任何字符
      例:#.a会匹配a.a,aa.a,aaa.a等
          *.a会匹配a.a,b.a,c.a等
     注:使用RoutingKey为#,Exchange Type为topic的时候相当于使用fanout

headers: 通过headers 来决定把消息发给哪些queue

消息publisher

import pika
import sys
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.exchange_declare(exchange='logs',
                         type='fanout')
 
message = ' '.join(sys.argv[1:]) or "info: Hello World!"
channel.basic_publish(exchange='logs',
                      routing_key='',
                      body=message)
print(" [x] Sent %r" % message)
connection.close()

消息subscriber

import pika
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.exchange_declare(exchange='logs',
                         type='fanout')
 
result = channel.queue_declare(exclusive=True) #不指定queue名字,rabbit会随机分配一个名字,exclusive=True会在使用此queue的消费者断开后,自动将queue删除
queue_name = result.method.queue
 
channel.queue_bind(exchange='logs',
                   queue=queue_name)
 
print(' [*] Waiting for logs. To exit press CTRL+C')
 
def callback(ch, method, properties, body):
    print(" [x] %r" % body)
 
channel.basic_consume(callback,
                      queue=queue_name,
                      no_ack=True)
 
channel.start_consuming()

 

有选择的接收消息(exchange type=direct)

RabbitMQ还支持根据关键字发送,即:队列绑定关键字,发送者将数据根据关键字发送到消息exchange,exchange根据 关键字 判定应该将数据发送至指定队列。

 

publisher
import pika
import sys
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.exchange_declare(exchange='direct_logs',
                         type='direct')
 
severity = sys.argv[1] if len(sys.argv) > 1 else 'info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='direct_logs',
                      routing_key=severity,
                      body=message)
print(" [x] Sent %r:%r" % (severity, message))
connection.close()
subscriber
import pika
import sys
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.exchange_declare(exchange='direct_logs',
                         type='direct')
 
result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue
 
severities = sys.argv[1:]
if not severities:
    sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
    sys.exit(1)
 
for severity in severities:
    channel.queue_bind(exchange='direct_logs',
                       queue=queue_name,
                       routing_key=severity)
 
print(' [*] Waiting for logs. To exit press CTRL+C')
 
def callback(ch, method, properties, body):
    print(" [x] %r:%r" % (method.routing_key, body))
 
channel.basic_consume(callback,
                      queue=queue_name,
                      no_ack=True)
 
channel.start_consuming()

 

更细致的消息过滤

publisher

import pika
import sys
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.exchange_declare(exchange='topic_logs',
                         type='topic')
 
routing_key = sys.argv[1] if len(sys.argv) > 1 else 'anonymous.info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='topic_logs',
                      routing_key=routing_key,
                      body=message)
print(" [x] Sent %r:%r" % (routing_key, message))
connection.close()

subscriber

import pika
import sys
 
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
 
channel.exchange_declare(exchange='topic_logs',
                         type='topic')
 
result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue
 
binding_keys = sys.argv[1:]
if not binding_keys:
    sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0])
    sys.exit(1)
 
for binding_key in binding_keys:
    channel.queue_bind(exchange='topic_logs',
                       queue=queue_name,
                       routing_key=binding_key)
 
print(' [*] Waiting for logs. To exit press CTRL+C')
 
def callback(ch, method, properties, body):
    print(" [x] %r:%r" % (method.routing_key, body))
 
channel.basic_consume(callback,
                      queue=queue_name,
                      no_ack=True)
 
channel.start_consuming()

 

Remote procedure call (RPC)

RPC server

import pika
import time
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
 
channel = connection.channel()
 
channel.queue_declare(queue='rpc_queue')
 
def fib(n):
    if n == 0:
        return 0
    elif n == 1:
        return 1
    else:
        return fib(n-1) + fib(n-2)
 
def on_request(ch, method, props, body):
    n = int(body)
 
    print(" [.] fib(%s)" % n)
    response = fib(n)
 
    ch.basic_publish(exchange='',
                     routing_key=props.reply_to,
                     properties=pika.BasicProperties(correlation_id = \
                                                         props.correlation_id),
                     body=str(response))
    ch.basic_ack(delivery_tag = method.delivery_tag)
 
channel.basic_qos(prefetch_count=1)
channel.basic_consume(on_request, queue='rpc_queue')
 
print(" [x] Awaiting RPC requests")
channel.start_consuming()

RPC client

import pika
import uuid
 
class FibonacciRpcClient(object):
    def __init__(self):
        self.connection = pika.BlockingConnection(pika.ConnectionParameters(
                host='localhost'))
 
        self.channel = self.connection.channel()
 
        result = self.channel.queue_declare(exclusive=True)
        self.callback_queue = result.method.queue
 
        self.channel.basic_consume(self.on_response, no_ack=True,
                                   queue=self.callback_queue)
 
    def on_response(self, ch, method, props, body):
        if self.corr_id == props.correlation_id:
            self.response = body
 
    def call(self, n):
        self.response = None
        self.corr_id = str(uuid.uuid4())
        self.channel.basic_publish(exchange='',
                                   routing_key='rpc_queue',
                                   properties=pika.BasicProperties(
                                         reply_to = self.callback_queue,
                                         correlation_id = self.corr_id,
                                         ),
                                   body=str(n))
        while self.response is None:
            self.connection.process_data_events()
        return int(self.response)
 
fibonacci_rpc = FibonacciRpcClient()
 
print(" [x] Requesting fib(30)")
response = fibonacci_rpc.call(30)
print(" [.] Got %r" % response)