Fork me on GitHub

python自动化编程-第十一天 rabbitmq redis

python自动化编程-第十一天 rabbitmq redis


rabbitmq

rabbitmq是什么?

erlang 语言开发 需要安装erlang

RabbitMQ 是一个消息代理: 它接受和转发消息。你可以把它想成邮局: 当你把你的邮件放在一个邮政信箱时, 你相信邮递员最终将邮件传递给你的收件人。在这个比喻中, RabbitMQ 是一个邮政信箱, 一个邮局和一个邮递员。

RabbitMQ 和邮局的主要区别在于它不处理纸张, 而是接受、存储和转发数据的二进制消息.

RabbitMQ 和消息传递通常使用一些术语。
生产消息只是为了发送消息。发送消息的程序是生产者。

队列驻留在RabbitMQ中的邮箱的名称。虽然消息流经 RabbitMQ 和应用程序, 但它们只能存储在队列中。队列只受主机的内存 & 磁盘限制的约束, 它实质上是一个大的消息缓冲区。许多生产者可以发送到一个队列的消息, 许多消费者可以尝试从一个队列接收数据。这就是我们如何表示队列的方式。

消费与接受有着相似的含义。消费者是一个程序,主要是等待接收信息:

生产者、消费者和rabbitmq不一定要在一台主机上;

为什么要用rabbitmq(消息队列)?

1、为了能够2个程序能够交互数据
通过socket,程序臃肿
通过硬盘(文件),效率低

2、python有自己的 消息队列,为什么用rabbitmq?
python的线程队列,python的进程队列
但是python的进程队列只能父进程与子进程进行交互;或者同属于 同一父进程下的多个子进程进行交互

所以使用一个第三方的队列程序让python进程之间能够交互数据

安装

安装rabbitmq

windows上安装

https://www.rabbitmq.com/install-windows.html

mac上安装

https://www.rabbitmq.com/install-standalone-mac.html

linux上安装

centos:
https://www.rabbitmq.com/install-rpm.html

ubuntu:
https://www.rabbitmq.com/install-debian.html

python rabbitMQ module

pika, a pure-Python AMQP 0-9-1 client (source code, API reference)
Celery, a distributed task queue for Django and pure Python
Haigha, an asynchronous AMQP 0-9-1 client based on libevent (the source code and docs are on github)

通常使用pika模块即可;

pip install pika
or
easy_install pika
or
源码
  
https://pypi.python.org/pypi/pika

https://www.rabbitmq.com/getstarted.html

rabbitmq初始化

配置用户名与密码

# 添加用户名和密码
sudo rabbitmqctl  add_user alex alex3714
# 配置权限,允许从外面访问
sudo rabbitmqctl set_permissions -p / alex ".*" ".*" ".*"

set_permissions [-p vhost] {user} {conf} {write} {read}

vhost
授予用户访问权限的虚拟主机的名称,默认为/。

user
授予对指定虚拟主机的访问权限的用户名。

conf
一个正则表达式匹配资源名,用户被授予配置权限。

write
一个匹配资源名称的正则表达式,授予用户写权限。

read
一个正则表达式,匹配授予用户读权限的资源名称。

简单的发布和订阅

发布者 P

import pika


credentials = pika.PlainCredentials('czlan', 'czlan')

connection = pika.BlockingConnection(
    # pika.ConnectionParameters('localhost') 
    pika.ConnectionParameters('192.168.255.128',5672,'/',credentials)
)

channel = connection.channel()  # 声明一个管道

# 声明 queue 在管道
channel.queue_declare(queue='hello')  
channel.basic_publish(
    exchange='', 
    routing_key='hello',  # queue 名字
    body='hello word!',  # 内容
)

print(" [x] Sent 'Hello World!'")
connection.close()  # 不用关闭管道,直接关闭队列

订阅者 C



import pika
import time

credentials = pika.PlainCredentials('czlan', 'czlan')

connection = pika.BlockingConnection(
    pika.ConnectionParameters('192.168.255.128',5672,'/',credentials)  
     # pika.ConnectionParameters('localhost')
)

channel = connection.channel()  # 声明一个管道

# 声明 queue 在管道
# You may ask why we declare the queue again
# ‒ we have already declared it in our previous code.
# We could avoid that if we were sure that the queue already exists.
#  For example if send.py program was run before.
# But we're not yet sure which program to run first.
# In such cases it's a good practice to repeat declaring the queue in both programs.
channel.queue_declare(queue='hello')


def callback(ch, method, properties, body):  # 回调 , 类似事件触发
    print(ch,method,properties)
    time.sleep(30)
    print(" [x] Received %r" % body)
    ch.basic_ack(delivery_tag=method.delivery_tag)
    # ch 是channel的内存对象地址,我们声明的
    # method 是发送给哪个队列的标记

channel.basic_qos(prefetch_count=1)  # 当消费者处理完这个消息 ,在给当前消费者发送第二条; 处理消息慢的 生产者就会少发;
channel.basic_consume(
    callback,  # 如果收到消息,就调用CALLBACK函数来处理消息
    queue='hello',  # 收消息的队列
    no_ack=True # no ackownledgement 不关心信息是否处理完成,一般都不加,让rabbitmq自己去确认消息是否处理完成
)

channel.start_consuming()

注意:当rabbitmq安装在本地,并且在本地调用rabbitmq时,则不需要用户名和密码,直接输入pika.ConnectionParameters('localhost')即可

在发送消息之前, 我们需要确保收件人队列存在。如果我们向不存在的位置发送消息, RabbitMQ 将只丢弃该消息,因此在两个程序中重复声明队列是一种很好的做法

查看rabbitmq-server有哪些队列以及其中有多少条消息

sudo rabbitmqctl list_queues

工作队列

默认情况下, RabbitMQ 将按顺序将每条消息发送到下一个消费者。平均每位消费者将得到相同数量的邮件。这种分发消息的方式称为 "循环";类似于负载均衡模式。

消息确认

在消费者端不加no_ack=True参数,此参数表示不关心消息是否处理完成;

rabbitmq的处理流程:

  1. 生产者生产一个数据,消费者接受以后,如果callback函数执行完成,则表示这个消息处理完成,那么就要手动发送一个确认消息给rabbitmq,告诉生产者这个消息处理完成,生产者就会把这个消息给删除了,
  2. 如果生产者没有收到这个消息处理完成的确认,生产者不会删除这个消息,而在此期间如果检测到消费者断开(连接rabbitmq使用socket连接的,因此通过socket来检测消费者是否断开),则会继续发送消息给其他消费者;

默认情况下,手动消息确认处于打开状态。在前面的示例中, 我们通过no_ack = true显式关闭它们。

def callback(ch, method, properties, body):
    print " [x] Received %r" % (body,)
    time.sleep( body.count('.') )
    print " [x] Done"
    ch.basic_ack(delivery_tag = method.delivery_tag) # 手动确认

channel.basic_consume(callback,
                      queue='hello') # 删除 no_ack = true

消息队列持久化

当 RabbitMQ 退出或崩溃时, 它会忘记队列和消息, 除非您告诉它不要这样做。需要两件事情来确保邮件不会丢失: 我们需要将队列和消息标记为持久性。

队列持久化

channel.quue_declare(queue='hello',durable=True)

注意:已创建的队列,不能修改参数,RabbitMQ 不允许您重新定义具有不同参数的现有队列, 并会将错误返回到任何尝试执行此项的程序

消息持久化:

channel.basic_publish(exchange='',
                      routing_key="queue",# queue名字
                      body='hello word!', # 内容
                      properties=pika.BasicProperties(
                         delivery_mode = 2, # make message persistent,队列消息持久化
                      ))		

公平派遣


例如, 在两个工人的情况下, 当有些消息是很费时间的, 而有些消息是简单的, 那么一个消费者将不断忙碌, 另一个将做几乎没有任何工作。 RabbitMQ 对此一无所知, 并且仍然会将消息均匀地发送出去。

发生这种情况的原因是, 当消息进入队列时, RabbitMQ 只是调度了一条消息。它不查看使用者的未确认邮件数。它只是盲目地将每一个 n 次信息发送给 n 个消费者。

通过设置参数channel.basic_qos(prefetch_count=1)
告诉 RabbitMQ 不要一次给一个消费者一个以上的消息。或者, 换言之, 在处理并确认前一条消息之前, 不要向消费者发送新消息。相反, 它会将它分派给不太忙的下一个消费者。

示例

生产者 p

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.queue_declare(queue='task_queue', durable=True) # durable 表示队列是持久的,但是queue的名称不能再rabbitmq中存在

message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(exchange='',
                      routing_key='task_queue',
                      body=message,
                      properties=pika.BasicProperties(
                         delivery_mode = 2, # make message persistent 消息持久化
                      ))
print(" [x] Sent %r" % message)
connection.close()

消费者 c

import pika
import time

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.queue_declare(queue='task_queue', durable=True)
# 队列持久化
print(' [*] Waiting for messages. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] Received %r" % body)
    time.sleep(body.count(b'.'))
    print(" [x] Done")
    ch.basic_ack(delivery_tag = method.delivery_tag)

channel.basic_qos(prefetch_count=1) # 公平派遣
channel.basic_consume(callback,
                      queue='task_queue') # 取消 no_ack参数

channel.start_consuming()

订阅与发送

exchange

生产者是发送消息的用户应用程序。
队列是存储消息的缓冲区。
使用者是接收消息的用户应用程序。

RabbitMQ 消息模型中的核心思想是生产者从不直接向队列发送任何消息。事实上, 通常生产者甚至不知道消息是否会被传递到任何队列中。

相反, 生产者只能向exchange发送消息。exchange是一件很简单的东西。一方面, 它接收来自生产者的消息, 另一侧则将其推送到队列中。exchange 必须确切知道如何处理接收到的消息。是否应追加到特定队列中?是否应追加到多个队列中?或者应该被丢弃。此规则由exchange 类型定义.

exchange的类型

direct:通过routingKey和exchange决定的那个唯一的queue可以接收消息
topic:所有符合routingKey(此时可以是一个表达式)的routingKey所bind的queue可以接收消息
headers:通过headers 来决定把消息发给哪些queue
fanout:将接收到的所有消息广播到它知道的所有队列中

广播,都是实时的,客户端启动之前,服务器发送的消息都会消失;类似收音机的模型,

声明exchange

channel.exchange_declare(exchange='logs',
                         exchange_type='fanout')

查看rabbitmq-server上的exchange:

sudo rabbitmqctl list_exchanges

列出rabbitmq-server的bind关系

rabbitmqctl list_bindings

临时队列

result = channel.queue_declare(exclusive=True)
# 不写queue名称,rabbitmq会自动生成一个,
# exclusive = true表示一旦关闭了消费者连接, 就删除该队列
queue_name = result.method.queue
# 随机生成的队列名称

绑定

channel.queue_bind(exchange='logs',
                   queue=queue_name)

fanout示例

生产者 p

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='logs',
                         exchange_type='fanout')

message = ' '.join(sys.argv[1:]) or "info: Hello World!"
channel.basic_publish(exchange='logs',
                      routing_key='',
                      body=message)
print(" [x] Sent %r" % message)
connection.close()

消费者 c

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='logs',
                         exchange_type='fanout')

result = channel.queue_declare(exclusive=True)
# 不写queue名称,rabbitmq会自动生成一个,
# exclusive = true表示一旦关闭了消费者连接, 就删除该队列
queue_name = result.method.queue
# 随机生成的队列名称

channel.queue_bind(exchange='logs',
                   queue=queue_name)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] %r" % body)

channel.basic_consume(callback,
                      queue=queue_name,
                      no_ack=True)

channel.start_consuming()

routing

fanout exchange, 这并没有给我们太多的灵活性-它只能够盲目的广播。
接下来将使用direct,direct exchange的路由算法很简单-一条消息转到其binding_key与消息的routing_key完全匹配的队列中。


在这个设置中, 我们可以看到直接交换X与两个绑定到它的队列。第一个队列绑定有绑定密钥橙色, 第二个则有两个绑定, 一个具有绑定密钥黑色, 另一条带有绿色.

在这样的设置中, 将路由密钥橙色发布到 exchange 的消息将被路由到队列Q1。带有黑色或绿色路由键的邮件将转到Q2。所有其他消息将被丢弃。

direct示例

生产者p

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='direct_logs',
                         exchange_type='direct')

severity = sys.argv[1] if len(sys.argv) > 2 else 'info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='direct_logs',
                      routing_key=severity,
                      body=message)
print(" [x] Sent %r:%r" % (severity, message))
connection.close()

消费者c

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='direct_logs',
                         exchange_type='direct')

result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue

severities = sys.argv[1:]
if not severities:
    sys.stderr.write("Usage: %s [info] [warning] [error]\n" % sys.argv[0])
    sys.exit(1)

for severity in severities:
    channel.queue_bind(exchange='direct_logs',
                       queue=queue_name,
                       routing_key=severity)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] %r:%r" % (method.routing_key, body))

channel.basic_consume(callback,
                      queue=queue_name,
                      no_ack=True)

channel.start_consuming()
# 如果只想将 "警告" 和 "错误" (而不是 "信息") 日志消息保存到文件中, 只需打开一个控制台并键入:
>>> python receive_logs_direct.py warning error > logs_from_rabbit.log

# 如果希望查看屏幕上的所有日志消息, 请打开一个新的终端并执行以下操作:
>>> python receive_logs_direct.py info warning error
# => [*] Waiting for logs. To exit press CTRL+C

# 例如, 要发出错误日志消息, 请键入:
>>> python emit_log_direct.py error "Run. Run. Or it will explode."
# => [x] Sent 'error':'Run. Run. Or it will explode.'

topic

发送到topic exchange的消息不能有任意的routing_key -它必须是由点分隔的单词列表

* 只能用一个词来代替。
# 可以替代零个或多个单词。

生产者

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='topic_logs',
                         exchange_type='topic')

routing_key = sys.argv[1] if len(sys.argv) > 2 else 'anonymous.info'
message = ' '.join(sys.argv[2:]) or 'Hello World!'
channel.basic_publish(exchange='topic_logs',
                      routing_key=routing_key,
                      body=message)
print(" [x] Sent %r:%r" % (routing_key, message))
connection.close()

消费者

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='topic_logs',
                         exchange_type='topic')

result = channel.queue_declare(exclusive=True)
queue_name = result.method.queue

binding_keys = sys.argv[1:]
if not binding_keys:
    sys.stderr.write("Usage: %s [binding_key]...\n" % sys.argv[0])
    sys.exit(1)

for binding_key in binding_keys:
    channel.queue_bind(exchange='topic_logs',
                       queue=queue_name,
                       routing_key=binding_key)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] %r:%r" % (method.routing_key, body))

channel.basic_consume(callback,
                      queue=queue_name,
                      no_ack=True)

channel.start_consuming()
# 要接收所有运行的日志:
>>> python receive_logs_topic.py "#"

# 接收设备中的所有日志 "kern":
>>> python receive_logs_topic.py "kern.*"

# 或者, 如果您只想听到 "critical" 日志:
>>> python receive_logs_topic.py "*.critical"

# 可以创建多个绑定:
>>> python receive_logs_topic.py "kern.*" "*.critical"

# 并使用路由键 "kern.critical" 类型发出日志:
>>> python emit_log_topic.py "kern.critical" "A critical kernel error"

远程过程调用 (RPC)


当客户端启动时, 它会创建一个匿名独占回调队列。
对于 RPC 请求, 客户端发送具有两个属性的消息: reply_to, 它被设置为回调队列和correlation_id, 它被设置为每个请求的唯一值。
请求被发送到rpc_queue队列。
RPC 消费者 (又名: 服务器) 正在等待该队列上的请求。当出现请求时, 它会使用reply_to字段中的队列, 并将返回的消息发送回客户端。
客户端等待回调队列上的数据。当出现消息时, 它会检查correlation_id属性。如果它与请求的值匹配, 它将返回对应用程序的响应。

server

import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))

channel = connection.channel()

channel.queue_declare(queue='rpc_queue')

def fib(n):
    if n == 0:
        return 0
    elif n == 1:
        return 1
    else:
        return fib(n-1) + fib(n-2)

def on_request(ch, method, props, body):
    n = int(body)

    print(" [.] fib(%s)" % n)
    response = fib(n)

    ch.basic_publish(exchange='',
                     routing_key=props.reply_to,
                     properties=pika.BasicProperties(correlation_id = \
                                                         props.correlation_id),
                     body=str(response))
    ch.basic_ack(delivery_tag = method.delivery_tag)

channel.basic_qos(prefetch_count=1)
channel.basic_consume(on_request, queue='rpc_queue')

print(" [x] Awaiting RPC requests")
channel.start_consuming()

server端
1.首先建立连接并声明队列。
2.宣布斐波那契函数。它只假定有效的正整数输入。
3.声明对 RPC 服务器的核心basic_consume的回调。在收到请求时执行,并发送回响应。
4.为了在多个服务器上平均分配负载, 我们需要设置prefetch_count设置。

client

import pika
import uuid

class FibonacciRpcClient(object):
    def __init__(self):
        self.connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))

        self.channel = self.connection.channel()

        result = self.channel.queue_declare(exclusive=True)
        self.callback_queue = result.method.queue

        self.channel.basic_consume(self.on_response, no_ack=True,
                                   queue=self.callback_queue)

    def on_response(self, ch, method, props, body):
        if self.corr_id == props.correlation_id:
            self.response = body

    def call(self, n):
        self.response = None
        self.corr_id = str(uuid.uuid4())
        self.channel.basic_publish(exchange='',
                                   routing_key='rpc_queue',
                                   properties=pika.BasicProperties(
                                         reply_to = self.callback_queue,
                                         correlation_id = self.corr_id,
                                         ),
                                   body=str(n))
        while self.response is None:
            self.connection.process_data_events()
        return int(self.response)

fibonacci_rpc = FibonacciRpcClient()

print(" [x] Requesting fib(30)")
response = fibonacci_rpc.call(30)
print(" [.] Got %r" % response)

clinet:
1.建立一个连接, 通道, 并声明一个独占 ' 回调 ' 队列的答复。
2.订阅 "回调" 队列, 以便我们可以接收 RPC 响应,在构造函数中定义。
3.每个响应执行的 "on_response" 回调操作, 对于每一个响应消息, 它检查如果correlation_id是我们要寻找的。它会将响应保存在自己的响应中, 并中断循环。
4.接下来, 定义了主调用方法-它做实际的 RPC 请求。
5.在这种方法中, 首先生成一个唯一的correlation_id数字并保存它-"on_response" 回调函数将使用此值捕获适当的响应。
6.接下来, 发布请求消息, 具有两个属性: reply_to和correlation_id.
7.等待, 结果返回。
8.最后, 将结果返回给用户。

redis 缓存

为什么要用redis?

让两个程序共享一个内存空间。

使用文件的方式效率低下,因此需要使用一个第三方的进程,并使用socket连接

缓存常用软件

mongodb 默认持久化
redis 可指定持久化
memcache 只能存在内存中,不能持久化

安装模块

pip3 install redis

文档:
https://redis-py.readthedocs.io/en/latest/#

redis server 安装

centos:
从epel源中安装
yum install redis

systemctl start redis

redis-cli # 进入命令行模式

桌面管理系统

要在Ubuntu 上安装 Redis桌面管理,可以从 http://redisdesktop.com/download 下载包并安装它。

Redis 桌面管理器会给你用户界面来管理 Redis 键和数据。

Redis API使用

redis-py 的API的使用可以分类为:

1、连接方式
2、连接池
3、操作
    String 操作
    Hash 操作
    List 操作
    Set 操作
    Sort Set 操作
4、管道
5、发布订阅

连接方式

1、操作模式

redis-py提供两个类Redis和StrictRedis用于实现Redis的命令,StrictRedis用于实现大部分官方的命令,并使用官方的语法和命令,Redis是StrictRedis的子类,用于向后兼容旧版本的redis-py。

import redis
  
r = redis.Redis(host='10.211.55.4', port=6379)
r.set('foo', 'Bar')
print r.get('foo')

2、连接池

redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池。

import redis

pool = redis.ConnectionPool(host='10.211.3.5',port=6379)

r = redis.Redis(connection_pool=pool)

r.set('foo','bar')
print(r.get('foo'))

操作

string操作

redis中的String在在内存中按照一个name对应一个value来存储。如图

set(name, value, ex=None, px=None, nx=False, xx=False)

在Redis中设置值,默认,不存在则创建,存在则修改
参数:
     ex,过期时间(秒)
     px,过期时间(毫秒)
     nx,如果设置为True,则只有name不存在时,当前set操作才执行
     xx,如果设置为True,则只有name存在时,岗前set操作才执行

setnx(name, value)

设置值,只有name不存在时,执行设置操作(添加)

setex(name, value, time)

# 设置值
# 参数:
    # time,过期时间(数字秒 或 timedelta对象)

psetex(name, time_ms, value)

# 设置值
# 参数:
    # time_ms,过期时间(数字毫秒 或 timedelta对象)

mset(*args, **kwargs)

批量设置值
如:
    mset(k1='v1', k2='v2')
    或
    mget({'k1': 'v1', 'k2': 'v2'})

get(name)

获取值

mget(keys, *args)

批量获取
如:
    mget('ylr', 'wupeiqi')
    或
    r.mget(['ylr', 'wupeiqi'])

getset(name, value)

设置新值并获取原来的值

getrange(key, start, end)

# 获取子序列(根据字节获取,非字符)
# 参数:
    # name,Redis 的 name
    # start,起始位置(字节)
    # end,结束位置(字节)
# 如: "武沛齐" ,0-3表示 "武"

setrange(name, offset, value)

# 修改字符串内容,从指定字符串索引开始向后替换(新值太长时,则向后添加)
# 参数:
    # offset,字符串的索引,字节(一个汉字三个字节)
    # value,要设置的值
setbit(name, offset, value)
# 对name对应值的二进制表示的位进行操作
 
# 参数:
    # name,redis的name
    # offset,位的索引(将值变换成二进制后再进行索引)
    # value,值只能是 1 或 0
 
# 注:如果在Redis中有一个对应: n1 = "foo",
        那么字符串foo的二进制表示为:01100110 01101111 01101111
    所以,如果执行 setbit('n1', 7, 1),则就会将第7位设置为1,
        那么最终二进制则变成 01100111 01101111 01101111,即:"goo"
 
# 扩展,转换二进制表示:
 
    # source = "武沛齐"
    source = "foo"
 
    for i in source:
        num = ord(i)
        print bin(num).replace('b','')
 
    特别的,如果source是汉字 "武沛齐"怎么办?
    答:对于utf-8,每一个汉字占 3 个字节,那么 "武沛齐" 则有 9个字节
       对于汉字,for循环时候会按照 字节 迭代,那么在迭代时,将每一个字节转换 十进制数,然后再将十进制数转换成二进制
        11100110 10101101 10100110 11100110 10110010 10011011 11101001 10111101 10010000
        -------------------------- ----------------------------- -----------------------------
                    武                         沛                           齐

用途举例,用最省空间的方式,存储在线用户数及分别是哪些用户在线

统计在线人数
		incl user_login 自增加
		decl user_login 自减
统计哪个人在线,根据用户ID
		setbit  user_online 用户ID 1
		bitcount user_online   统计1的个数就知道有多少人在线了,可以获取谁在线
		getbit user_online 用户id

getbit(name, offset)

# 获取name对应的值的二进制表示中的某位的值 (0或1)

bitcount(key, start=None, end=None)
# 获取name对应的值的二进制表示中 1 的个数
# 参数:
    # key,Redis的name
    # start,位起始位置
    # end,位结束位置

strlen(name)

# 返回name对应值的字节长度(一个汉字3个字节)
incr(self, name, amount=1)
# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
 
# 参数:
    # name,Redis的name
    # amount,自增数(必须是整数)
 
# 注:同incrby

incrbyfloat(self, name, amount=1.0)

# 自增 name对应的值,当name不存在时,则创建name=amount,否则,则自增。
 
# 参数:
    # name,Redis的name
    # amount,自增数(浮点型)

decr(self, name, amount=1)

# 自减 name对应的值,当name不存在时,则创建name=amount,否则,则自减。
# 参数:
    # name,Redis的name
    # amount,自减数(整数)

append(key, value)

# 在redis name对应的值后面追加内容
 
# 参数:
    key, redis的name
    value, 要追加的字符串

hash操作

hash表现形式上有些像pyhton中的dict,可以存储一组关联性较强的数据 , redis中Hash在内存中的存储格式如下图:  

hset(name, key, value)

# name对应的hash中设置一个键值对(不存在,则创建;否则,修改)
 
# 参数:
    # name,redis的name
    # key,name对应的hash中的key
    # value,name对应的hash中的value
 
# 注:
    # hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加)

hmset(name, mapping)

# 在name对应的hash中批量设置键值对
 
# 参数:
    # name,redis的name
    # mapping,字典,如:{'k1':'v1', 'k2': 'v2'}
 
# 如:
    # r.hmset('xx', {'k1':'v1', 'k2': 'v2'})

hget(name,key)

# 在name对应的hash中获取根据key获取value

hmget(name, keys, *args)

# 在name对应的hash中获取多个key的值
 
# 参数:
    # name,reids对应的name
    # keys,要获取key集合,如:['k1', 'k2', 'k3']
    # *args,要获取的key,如:k1,k2,k3
 
# 如:
    # r.mget('xx', ['k1', 'k2'])
    # 或
    # print r.hmget('xx', 'k1', 'k2')

hgetall(name)

获取name对应hash的所有键值

hlen(name)

# 获取name对应的hash中键值对的个数

hkeys(name)

# 获取name对应的hash中所有的key的值

hvals(name)

# 获取name对应的hash中所有的value的值

hexists(name, key)

# 检查name对应的hash是否存在当前传入的key

hdel(name,*keys)

# 将name对应的hash中指定key的键值对删除

hincrby(name, key, amount=1)

# 自增name对应的hash中的指定key的值,不存在则创建key=amount
# 参数:
    # name,redis中的name
    # key, hash对应的key
    # amount,自增数(整数)

hincrbyfloat(name, key, amount=1.0)

# 自增name对应的hash中的指定key的值,不存在则创建key=amount
 
# 参数:
    # name,redis中的name
    # key, hash对应的key
    # amount,自增数(浮点数)
 
# 自增name对应的hash中的指定key的值,不存在则创建key=amount

hscan(name, cursor=0, match=None, count=None)

Start a full hash scan with:

HSCAN myhash 0

Start a hash scan with fields matching a pattern with:

HSCAN myhash 0 MATCH order_*

Start a hash scan with fields matching a pattern and forcing the scan command to do more scanning with:

HSCAN myhash 0 MATCH order_* COUNT 1000

# 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而放置内存被撑爆
 
# 参数:
    # name,redis的name
    # cursor,游标(基于游标分批取获取数据)
    # match,匹配指定key,默认None 表示所有的key
    # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
 
# 如:
    # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None)
    # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None)
    # ...
    # 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕

hscan_iter(name, match=None, count=None)

# 利用yield封装hscan创建生成器,实现分批去redis中获取数据
  
# 参数:
    # match,匹配指定key,默认None 表示所有的key
    # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数
  
# 如:
    # for item in r.hscan_iter('xx'):
    #     print item

list

List操作,redis中的List在在内存中按照一个name对应一个List来存储。如图:  

lpush(name,values)

# 在name对应的list中添加元素,每个新的元素都添加到列表的最左边
 
# 如:
    # r.lpush('oo', 11,22,33)
    # 保存顺序为: 33,22,11
 
# 扩展:
    # rpush(name, values) 表示从右向左操作

lpushx(name,value)

# 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边
 
# 更多:
    # rpushx(name, value) 表示从右向左操作

llen(name)

# name对应的list元素的个数

linsert(name, where, refvalue, value))

# 在name对应的列表的某一个值前或后插入一个新值
 
# 参数:
    # name,redis的name
    # where,BEFORE或AFTER
    # refvalue,标杆值,即:在它前后插入数据
    # value,要插入的数据

r.lset(name, index, value)

# 对name对应的list中的某一个索引位置重新赋值
 
# 参数:
    # name,redis的name
    # index,list的索引位置
    # value,要设置的值

r.lrem(name, value, num)

# 在name对应的list中删除指定的值
 
# 参数:
    # name,redis的name
    # value,要删除的值
    # num,  num=0,删除列表中所有的指定值;
           # num=2,从前到后,删除2个;
           # num=-2,从后向前,删除2个

lpop(name)

# 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素
 
# 更多:
    # rpop(name) 表示从右向左操作

lindex(name, index)

在name对应的列表中根据索引获取列表元素

lrange(name, start, end)

# 在name对应的列表分片获取数据
# 参数:
    # name,redis的name
    # start,索引的起始位置
    # end,索引结束位置

ltrim(name, start, end)

# 在name对应的列表中移除没有在start-end索引之间的值
# 参数:
    # name,redis的name
    # start,索引的起始位置
    # end,索引结束位置

rpoplpush(src, dst)

# 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边
# 参数:
    # src,要取数据的列表的name
    # dst,要添加数据的列表的name

blpop(keys, timeout)

# 将多个列表排列,按照从左到右去pop对应列表的元素
 
# 参数:
    # keys,redis的name的集合
    # timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞
 
# 更多:
    # r.brpop(keys, timeout),从右向左获取数据

brpoplpush(src, dst, timeout=0)

# 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧
 
# 参数:
    # src,取出并要移除元素的列表对应的name
    # dst,要插入元素的列表对应的name
    # timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞

set集合操作

Set操作,Set集合就是不允许重复的列表

sadd(name,values)

# name对应的集合中添加元素

scard(name)

获取name对应的集合中元素个数

sdiff(keys, *args)

在第一个name对应的集合中且不在其他name对应的集合的元素集合

sdiffstore(dest, keys, *args)

# 获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中

sinter(keys, *args)

# 获取多一个name对应集合的并集

sinterstore(dest, keys, *args)

# 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中

sismember(name, value)

# 检查value是否是name对应的集合的成员

smembers(name)

# 获取name对应的集合的所有成员

smove(src, dst, value)

# 将某个成员从一个集合中移动到另外一个集合

spop(name)

# 从集合的右侧(尾部)移除一个成员,并将其返回

srandmember(name, numbers)

# 从name对应的集合中随机获取 numbers 个元素

srem(name, values)

# 在name对应的集合中删除某些值

sunion(keys, *args)

# 获取多一个name对应的集合的并集

sunionstore(dest,keys, *args)

# 获取多一个name对应的集合的并集,并将结果保存到dest对应的集合中

sscan(name, cursor=0, match=None, count=None)
sscan_iter(name, match=None, count=None)

# 同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大

有序集合

在集合的基础上,为每元素排序;元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序。

zadd(name, *args, **kwargs)

# 在name对应的有序集合中添加元素
# 如:
     # zadd('zz', 'n1', 1, 'n2', 2)
     # 或
     # zadd('zz', n1=11, n2=22)

zcard(name)

# 获取name对应的有序集合元素的数量

zcount(name, min, max)

# 获取name对应的有序集合中分数 在 [min,max] 之间的个数

zincrby(name, value, amount)

# 自增name对应的有序集合的 name 对应的分数

r.zrange( name, start, end, desc=False, withscores=False, score_cast_func=float)

# 按照索引范围获取name对应的有序集合的元素
 
# 参数:
    # name,redis的name
    # start,有序集合索引起始位置(非分数)
    # end,有序集合索引结束位置(非分数)
    # desc,排序规则,默认按照分数从小到大排序
    # withscores,是否获取元素的分数,默认只获取元素的值
    # score_cast_func,对分数进行数据转换的函数
 
# 更多:
    # 从大到小排序
    # zrevrange(name, start, end, withscores=False, score_cast_func=float)
 
    # 按照分数范围获取name对应的有序集合的元素
    # zrangebyscore(name, min, max, start=None, num=None, withscores=False, score_cast_func=float)
    # 从大到小排序
    # zrevrangebyscore(name, max, min, start=None, num=None, withscores=False, score_cast_func=float)

zrank(name, value)

# 获取某个值在 name对应的有序集合中的排行(从 0 开始)
 
# 更多:
    # zrevrank(name, value),从大到小排序

zrem(name, values)

# 删除name对应的有序集合中值是values的成员
 
# 如:zrem('zz', ['s1', 's2'])

zremrangebyrank(name, min, max)

# 根据排行范围删除

zremrangebyscore(name, min, max)

# 根据分数范围删除

zscore(name, value)

# 获取name对应有序集合中 value 对应的分数

zinterstore(dest, keynums,keys, aggregate=None)

# 获取两个有序集合的交集,遇到相同值不同分数,则按照aggregate进行操作
# aggregate的值为:  SUM  MIN  MAX,默认为sum
keynums:表示多少个集合,

zunionstore(dest, keynums,keys, aggregate=None)

# 获取两个有序集合的并集,遇到相同值不同分数,则按照aggregate进行操作
# aggregate的值为:  SUM  MIN  MAX

zscan(name, cursor=0, match=None, count=None, score_cast_func=float)

zscan_iter(name, match=None, count=None,score_cast_func=float)

# 同字符串相似,相较于字符串新增score_cast_func,用来对分数进行操作

其他常用操作

delete(*names)

# 根据删除redis中的任意数据类型

exists(name)

# 检测redis的name是否存在

keys(pattern='*')

# 根据模型获取redis的name
 
# 更多:
    # KEYS * 匹配数据库中所有 key 。
    # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
    # KEYS h*llo 匹配 hllo 和 heeeeello 等。
    # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo

expire(name ,time)

# 为某个redis的某个name设置超时时间

rename(src, dst)

# 对redis的name重命名为

move(name, db))

# 将redis的某个值移动到指定的db下

randomkey()

# 随机获取一个redis的name(不删除)

type(name)

# 获取name对应值的类型

scan(cursor=0, match=None, count=None)
scan_iter(match=None, count=None)

# 同字符串操作,用于增量迭代获取key

管道

redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
import redis
 
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
 
r = redis.Redis(connection_pool=pool)
 
# pipe = r.pipeline(transaction=False)
pipe = r.pipeline(transaction=True)
 
pipe.set('name', 'alex')
pipe.set('role', 'sb')
 
pipe.execute()

发布和订阅

import redis


class RedisHelper:

    def __init__(self):
        self.__conn = redis.Redis(host='10.211.55.4')
        self.chan_sub = 'fm104.5'
        self.chan_pub = 'fm104.5'

    def public(self, msg):
        self.__conn.publish(self.chan_pub, msg)
        return True

    def subscribe(self):
        pub = self.__conn.pubsub()
        pub.subscribe(self.chan_sub)
        pub.parse_response()
        return pub

订阅者

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
from monitor.RedisHelper import RedisHelper
 
obj = RedisHelper()
redis_sub = obj.subscribe()
 
while True:
    msg= redis_sub.parse_response()
    print msg

发布者

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
from monitor.RedisHelper import RedisHelper
 
obj = RedisHelper()
obj.public('hello')

twisted 异步网络框架

http://www.cnblogs.com/alex3714/articles/5248247.html

memcache模块

http://www.cnblogs.com/wupeiqi/articles/5132791.html

posted @ 2018-06-27 03:55  耳_东  阅读(125)  评论(0)    收藏  举报