Python并发编程-进程

第1章 进程介绍

1.1 进程概念

进程(Process)是计算机中的程序关于某数据集合上的一次运行活动,是系统进行资源分配和调度的基本单位,是操作系统结构的基础。在早期面向进程设计的计算机结构中,进程是程序的基本执行实体;在当代面向线程设计的计算机结构中,进程是线程的容器。程序是指令、数据及其组织形式的描述,进程是程序的实体。

狭义定义:进程是正在运行的程序的实例(an instance of a computer program that is being executed)。

广义定义:进程是一个具有一定独立功能的程序关于某个数据集合的一次运行活动。它是操作系统动态执行的基本单元,在传统的操作系统中,进程既是基本的分配单元,也是基本的执行单元。

1.2 进程的并行与并发

1.2.1 并行与并发的概念

  • 并行:并行是指两者同时执行,比如赛跑,两个人都在不停的往前跑;(资源够用,比如三个线程,四核的CPU )
  • 并发:并发是指资源有限的情况下,两者交替轮流使用资源,比如一段路(单核CPU资源)同时只能过一个人,A走一段后,让给B,B用完继续给A ,交替使用,目的是提高效率。

1.2.2 并行与并发的区别

  • 并行是从微观上,也就是在一个精确的时间片刻,有不同的程序在执行,这就要求必须有多个处理器。
  • 并发是从宏观上,在一个时间段上可以看出是同时执行的,比如一个服务器同时处理多个session。

1.3 同步异步阻塞非阻塞

1.3.1 进程三状态转化图

图片[1]|Python并发编程-进程|leon的博客

1.3.2 同步和异步

所谓同步就是一个任务的完成需要依赖另外一个任务时,只有等待被依赖的任务完成后,依赖的任务才能算完成,这是一种可靠的任务序列。要么成功都成功,失败都失败,两个任务的状态可以保持一致。

所谓异步是不需要等待被依赖的任务完成,只是通知被依赖的任务要完成什么工作,依赖的任务也立即执行,只要自己完成了整个任务就算完成了。至于被依赖的任务最终是否真正完成,依赖它的任务无法确定,所以它是不可靠的任务序列。

【示例】

比如我去银行办理业务,可能会有两种方式:
第一种 :选择排队等候;
第二种 :选择取一个小纸条上面有我的号码,等到排到我这一号时由柜台的人通知我轮到我去办理业务了;

第一种:前者(排队等候)就是同步等待消息通知,也就是我要一直在等待银行办理业务情况;
第二种:后者(等待别人通知)就是异步等待消息通知。在异步消息处理中,等待消息通知者(在这个例子中就是等待办理业务的人)往往注册一个回调机制,在所等待的事件被触发时由触发机制(在这里是柜台的人)通过某种机制(在这里是写在小纸条上的号码,喊号)找到等待该事件的人

1.3.3 阻塞与非阻塞

阻塞和非阻塞这两个概念与程序(线程)等待消息通知(无所谓同步或者异步)时的状态有关。也就是说阻塞与非阻塞主要是程序(线程)等待消息通知时的状态角度来说的

1.3.4 同步/异步与阻塞/非阻塞

  • 同步阻塞形式:

效率最低。

拿上面的例子来说,就是你专心排队,什么别的事都不做。
  • 异步阻塞形式:
  如果在银行等待办理业务的人采用的是异步的方式去等待消息被触发(通知),也就是领了一张小纸条,假如在这段时间里他不能离开银行做其它的事情,那么很显然,这个人被阻塞在了这个等待的操作上面;

异步操作是可以被阻塞住的,只不过它不是在处理消息时阻塞,而是在等待消息通知时被阻塞。

  • 同步非阻塞形式:

实际上是效率低下的。

  想象一下你一边打着电话一边还需要抬头看到底队伍排到你了没有,如果把打电话和观察排队的位置看成是程序的两个操作的话,这个程序需要在这两种不同的行为之间来回的切换,效率可想而知是低下的。
  • 异步非阻塞形式:

 效率更高。

  因为打电话是你(等待者)的事情,而通知你则是柜台(消息触发机制)的事情,程序没有在两种不同的操作中来回切换。
  比如说,这个人突然发觉自己烟瘾犯了,需要出去抽根烟,于是他告诉大堂经理说,排到我这个号码的时候麻烦到外面通知我一下,那么他就没有被阻塞在这个等待的操作上面,自然这个就是异步+非阻塞的方式了。

第2章 在python程序中的进程操作

2.1 multiprocess.process模块

2.1.1 process模块介绍

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:
1、需要使用关键字的方式来指定参数
2、args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

参数介绍:
1 group参数未使用,值始终为None
2 target表示调用对象,即子进程要执行的任务
3 args表示调用对象的位置参数元组,args=(1,2,'egon',)
4 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
5 name为子进程的名称
  • 方法介绍:
1 p.start():启动进程,并调用该子进程中的p.run()
2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法 
3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
4 p.is_alive():如果p仍然运行,返回True
5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
  • 属性介绍:
1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
2 p.name:进程的名称
3 p.pid:进程的pid
4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
5 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
  • windows中的注意事项:
在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。

2.1.2 使用process模块创建进程

  • 创建进程:

【示例】:创建一个子进程

import os
import time
from multiprocessing import Process

def func(args,args2):
    print(args,args2)
    time.sleep(3)
    print('子进程 :', os.getpid())
    print('子进程的父进程 :', os.getppid())
    print(12345)

if __name__ == '__main__':
    p = Process(target=func,args=('参数','参数2'))   # 注册
    # p是一个进程对象,还没有启动进程
    p.start()                                         # 开启了一个子进程
    print('*'*10)
    print('父进程 :',os.getpid())                     # 查看当前进程的进程号
    print('父进程的父进程 :',os.getppid())            # 查看当前进程的父进程

【运行结果】:

**********
父进程 : 3112
父进程的父进程 : 4108
参数 参数2
子进程 : 5052
子进程的父进程 : 3112
12345

【示例】:直接创建多个子进程

import os
from multiprocessing import Process

def func(filename,content):
    with open(filename,'w') as f:
        f.write(content*10*'*')

if __name__ == '__main__':
    p_lst = []
    for i in range(5):
        p = Process(target=func,args=('info%s'%i,0))
        p_lst.append(p)
        p.start()
    # for p in p_lst:p.join()
    [p.join() for p in p_lst]       # 之前的所有进程必须在这里都执行完才能执行下面的代码
    print([i for i in os.walk(r'D:\WorkSpace\Python\python_study\15.并发编程\进程')])

【运行结果】:

[('D:\\WorkSpace\\Python\\python_study\\15.并发编程\\进程', [], ['info0', 'info1', 'info2', 'info3', 'info4', '创建一个进程.py', '开启多个子进程.py'])]

【示例】:自定义类继承创建多个子进程

from multiprocessing import Process

class MyProcess(Process):
    def __init__(self,arg1,arg2):
        super().__init__()
        self.arg1 = arg1
        self.arg2 = arg2

    def run(self):
        print(self.pid)
        print(self.name)
        print(self.arg1)
        print(self.arg2)

if __name__ == '__main__':
    p1 = MyProcess(1,2)
    p1.start()
    p2 = MyProcess(3,4)
    p2.start()

【运行结果】:

8256
MyProcess-1
1
2
14496
MyProcess-2
3
4
  • join方法:

Tips:join方法可以感知一个子进程的结束,将异步的程序改为同步程序。

【示例】:

import time
from multiprocessing import Process

def func(arg1,arg2):
    print('*'*arg1)
    time.sleep(5)
    print('*'*arg2)

if __name__ == '__main__':
    p = Process(target=func,args=(10,20))
    p.start()
    print('我还在运行')         # 异步执行
    p.join()
    print('====== : 运行完了')  # 同步执行

【运行结果】:

我还在运行
**********
********************
====== : 运行完了

2.1.3 进程间的数据隔离问题

Tips:进程间的数据是隔离的。

【示例】:

import os
from multiprocessing import Process

def func():
    global n    # 声明了一个全局变量
    n = 0       # 重新定义了一个n
    print('pid : %s'%os.getpid(),n)

if __name__ == '__main__':
    n = 100
    p = Process(target=func)
    p.start()
    p.join()
    print(os.getpid(),n)

【运行结果】:

pid : 15028 0
9548 100

2.1.4 守护进程

主进程创建守护进程:

  1. 守护进程会在主进程代码执行结束后就终止
  2. 守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children

Tips:进程之间是互相独立的,主进程代码运行结束(此处为代码运行结束,而非程序结束),守护进程随即终止。

【示例】: 创建守护进程

import time
from multiprocessing import Process

def func():
    while True:
        time.sleep(0.5)
        print('我还活着')

def func2():
    print('in func2 start')
    time.sleep(5)
    print('in func2 finished')

if __name__ == '__main__':
    p = Process(target=func)
    p.daemon = True         # 设置子进程为守护进程
    p.start()
    p2 = Process(target=func2)
    p2.start()
    p2.terminate()          # 结束一个子进程
    print(p2.is_alive())    # 检验一个进程是否还活着
    time.sleep(1)
    print(p2.is_alive())    # 检验一个进程是否还活着

    print(p2.name)          # 打印进程名称
    print(p2.pid)           # 打印进程pid
    i = 0
    while i<3:
        print('我是socket server')
        time.sleep(1)
        i+=1

【运行结果】:

True
我还活着
False
Process-2
4508
我是socket server
我还活着
我还活着
我是socket server
我还活着
我还活着
我是socket server
我还活着
我还活着

2.1.5 socket并发聊天实例

【服务端】:

import socket
from multiprocessing import Process

def serve(conn):
    ret = '你好'.encode('utf-8')
    conn.send(ret)
    msg = conn.recv(1024).decode('utf-8')
    print(msg)
    conn.close()

if __name__ == '__main__' :
    sk = socket.socket()
    sk.bind(('127.0.0.1',8080))
    sk.listen()
    try:
        while True:
            conn,addr = sk.accept()
            p = Process(target=serve,args=(conn,))
            p.start()
    finally:
        sk.close()

【客户端】:

import socket

sk = socket.socket()
sk.connect(('127.0.0.1',8080))
msg = sk.recv(1024).decode('utf-8')
print(msg)
msg2 = input('>>>').encode('utf-8')
sk.send(msg2)
sk.close()

【运行结果】:

服务端:
你好client1
你好client2

客户端1:
你好
>>>你好client1

客户端2:
你好
>>>你好client2

2.2 multiprocess.Lock模块

2.2.1 进程锁的作用

当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题。因此引入了进程锁的概念。

2.2.2 进程锁的问题

加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,速度是慢了,但牺牲了速度却保证了数据安全。

虽然可以用文件共享数据实现进程间通信,但问题是:

  1. 效率低(共享数据基于文件,而文件是硬盘上的数据)
  2. 需要自己加锁处理

因此我们最好找寻一种解决方案能够兼顾:

  1. 效率高(多个进程共享一块内存的数据)
  2. 帮我们处理好锁问题。

这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。

队列和管道都是将数据存放于内存中,队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

2.2.3 进程锁抢票实例

【示例】:不加锁的结果

import json
import time
from multiprocessing import Process

def show(i):
    with open('ticket') as f:
        dic = json.load(f)
    print('余票:%s'%dic['ticket'])

def buy_ticket(i):
    with open('ticket') as f:
        dic = json.load(f)
        time.sleep(0.1)     # 模拟网络延迟

    if dic['ticket'] > 0:
        dic['ticket'] -= 1
        print('\033[32m%s买到票了\033[0m'%i)
    else:
        print('\033[31m%s没买到票\033[0m' % i)

    time.sleep(0.1 )        # 模拟网络延迟
    with open('ticket','w') as f:
        json.dump(dic,f)

if __name__ == '__main__':
    for i in range(10):
        p = Process(target=show,args=(i,))
        p.start()
    for i in range(10):
        p = Process(target=buy_ticket,args=(i,))
        p.start()

ticket文件:
{"ticket": 0}

【运行结果】:余票只有一张,但是7个人买到了票

余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
0买到票了
2买到票了
3买到票了
1买到票了
4买到票了
5买到票了
6买到票了
7买到票了
8没买到票
9没买到票

【示例】:加锁的结果

import json
import time
from multiprocessing import Process
from multiprocessing import Lock

def show(i):
    with open('ticket') as f:
        dic = json.load(f)
    print('余票:%s'%dic['ticket'])

def buy_ticket(i,lock):
    lock.acquire()          # 加锁
    with open('ticket') as f:
        dic = json.load(f)
        time.sleep(0.1)     # 模拟网络延迟

    if dic['ticket'] > 0:
        dic['ticket'] -= 1
        print('\033[32m%s买到票了\033[0m'%i)
    else:
        print('\033[31m%s没买到票\033[0m' % i)

    time.sleep(0.1 )        # 模拟网络延迟
    with open('ticket','w') as f:
        json.dump(dic,f)
    lock.release()          # 释放锁

if __name__ == '__main__':
    for i in range(10):
        p = Process(target=show,args=(i,))
        p.start()
    lock = Lock()
    for i in range(10):
        p = Process(target=buy_ticket,args=(i,lock))
        p.start()

【运行结果】:只有和余票相同的人数买到了票

余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
余票:1
0买到票了
1没买到票
3没买到票
2没买到票
4没买到票
5没买到票
6没买到票
7没买到票
9没买到票
8没买到票

2.3 multiprocess.Semaphore模块

2.3.1 信号量的作用

互斥锁同时只允许一个线程更改数据,而信号量Semaphore是同时允许一定数量的线程更改数据 。

2.3.2 KTV示例

【示例】:

import time
import random
from multiprocessing import Process,Semaphore

def ktv(i,sem):
    sem.acquire()       # 获取钥匙
    print('\033[32m%i走进ktv\033[0m'%i)
    time.sleep(random.randint(1,5))
    print('\033[31m%i走出ktv\033[0m'%i)
    sem.release()

if __name__ == "__main__":
    sem = Semaphore(4)
    for i in range(10):
        p = Process(target=ktv,args=(i,sem))
        p.start()

【运行结果】:

0走进ktv
2走进ktv
1走进ktv
3走进ktv
2走出ktv
4走进ktv
3走出ktv
6走进ktv
6走出ktv
5走进ktv
0走出ktv
9走进ktv
5走出ktv
7走进ktv
4走出ktv
8走进ktv
1走出ktv
9走出ktv
7走出ktv
8走出ktv

2.4 multiprocess.Event模块

2.4.1 事件介绍

python线程的事件用于主线程控制其他线程的执行,通过一个信号来控制多个进程同时执行或者阻塞,事件主要提供了三个方法 set、wait、clear。

事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。

clear:将“Flag”设置为False
set:将“Flag”设置为True
is_set:用来查看一个事件的状态
wait:是依据事件的状态来决定自己是否在wait处阻塞,False阻塞/True不阻塞

2.4.2 事件方法示例

【示例】:

from multiprocessing import Event
e = Event()         # 创建了一个事件
print(e.is_set())   # 查看一个事件的状态,默认被设置成阻塞
e.set()             # 将这个事件的状态改为True
print(e.is_set())
e.wait()            # 是依据e.is_set()的值来决定是否阻塞的
print(123456)
e.clear()           # 将这个事件的状态改为False
print(e.is_set())
e.wait()            # 等待 事件的信号被变成True
print('*'*10)

【运行结果】:

False
True
123456
False

2.4.3 红路灯示例

【示例】:

import time
import random
from multiprocessing import Process,Event

def cars(e,i):
    if not e.is_set():
        print('car%i在等待'%i)
        e.wait()    # 阻塞,直到得到一个事件状态变成True的信号
    print('\033[0;32;40mcar%i通过\033[0m' % i)

def light(e):
    while True:
        if e.is_set():
            e.clear()
            print('\033[31m红灯亮了\033[0m')
        else:
            e.set()
            print('\033[32m绿灯亮了\033[0m')
        time.sleep(2)

if __name__ == '__main__':
    e = Event()
    traffic = Process(target=light,args=(e,))
    traffic.start()
    for i in range(20):
        car = Process(target=cars,args=(e,i))
        car.start()
        time.sleep(random.random())

【运行结果】:

绿灯亮了
car0通过
car1通过
car2通过
car3通过
红灯亮了
car4在等待
car5在等待
car6在等待
绿灯亮了
car4通过
car5通过
car6通过
car7通过
car8通过
car9通过
car10通过
car11通过
car12通过
红灯亮了
car13在等待
car14在等待
car15在等待
car16在等待
绿灯亮了
car14通过
car16通过
car15通过
car13通过
car17通过
car18通过
car19通过
红灯亮了
绿灯亮了

2.5 multiprocess.Queue模块

创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。

2.5.1 队列介绍

【创建方法】:

Queue([maxsize])
创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。

【实例方法】:

q.get( [ block [ ,timeout ] ] )
返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。

q.get_nowait( )
同q.get(False)方法。

q.put(item [, block [,timeout ] ] )
将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。

q.qsize()
返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。

q.empty()
如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

q.full()
如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。

q.close()
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,如果某个使用者正被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。

q.cancel_join_thread()
不会再进程退出时自动连接后台线程。这可以防止join_thread()方法阻塞。

q.join_thread()
连接队列的后台线程。此方法用于在调用q.close()方法后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread()方法可以禁止这种行为。

2.5.2 队列使用方法

【示例】:

from multiprocessing import Queue

q=Queue(3)

# put ,get ,put_nowait,get_nowait,full,empty
q.put(3)
q.put(3)
q.put(3)
# q.put(3)          # 如果队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。
                    # 如果队列中的数据一直不被取走,程序就会永远停在这里。
try:
    q.put_nowait(3) # 可以使用put_nowait,如果队列满了不会阻塞,但是会因为队列满了而报错。
except:             # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去,但是会丢掉这个消息。
    print('队列已经满了')

# 因此,我们再放入数据之前,可以先看一下队列的状态,如果已经满了,就不继续put了。
print(q.full())     # 满了

print(q.get())
print(q.get())
print(q.get())
# print(q.get())    # 同put方法一样,如果队列已经空了,那么继续取就会出现阻塞。
try:
    q.get_nowait(3) # 可以使用get_nowait,如果队列满了不会阻塞,但是会因为没取到值而报错。
except:             # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去。
    print('队列已经空了')

print(q.empty())    # 空了

【运行结果】:

队列已经满了
True
3
3
3
队列已经空了
True

2.5.3 生产消费者模型

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

【示例】:普通生产者消费者模型

import time
import random
from multiprocessing import Process,Queue

def consumer(q,name):
    while True:
        food = q.get()
        print('\033[31m%s消费了%s\033[0m' % (name,food))
        time.sleep(random.randint(1,3))

def producer(name,food,q):
    for i in range(4):
        time.sleep(random.randint(1,3))
        f = '%s生产了%s%s'%(name,food,i)
        print(f)
        q.put(f)

if __name__  == '__main__':
    q = Queue(5)
    p1 = Process(target=producer,args=('leon','包子',q))
    p2 = Process(target=producer, args=('shadow','馒头', q))
    c1 = Process(target=consumer, args=(q,'shuaige'))
    c2 = Process(target=consumer, args=(q,'meinv'))
    p1.start()
    p2.start()
    c1.start()
    c2.start()
    p1.join()
    p2.join()

【运行结果】:

leon生产了包子0
shuaige消费了leon生产了包子0
shadow生产了馒头0
meinv消费了shadow生产了馒头0
leon生产了包子1
shuaige消费了leon生产了包子1
leon生产了包子2
meinv消费了leon生产了包子2
shadow生产了馒头1
shuaige消费了shadow生产了馒头1
leon生产了包子3
meinv消费了leon生产了包子3
shadow生产了馒头2
shuaige消费了shadow生产了馒头2
shadow生产了馒头3
shuaige消费了shadow生产了馒头3

# 阻塞了

Tips:由于生产者p在生产完后就结束了,但是消费者c在取空了q之后,则一直处于死循环中且卡在q.get()这一步,所以存在主进程永远不会结束的问题。

【示例】:改进版生产者消费者模型

import time
import random
from multiprocessing import Process,Queue

def consumer(q,name):
    while True:
        food = q.get()
        if food is None:
            print('%s获取到了一个空'%name)
            break
        print('\033[31m%s消费了%s\033[0m' % (name,food))
        time.sleep(random.randint(1,3))

def producer(name,food,q):
    for i in range(4):
        time.sleep(random.randint(1,3))
        f = '%s生产了%s%s'%(name,food,i)
        print(f)
        q.put(f)

if __name__  == '__main__':
    q = Queue(5)
    p1 = Process(target=producer,args=('leon','包子',q))
    p2 = Process(target=producer, args=('shadow','馒头', q))
    c1 = Process(target=consumer, args=(q,'shuaige'))
    c2 = Process(target=consumer, args=(q,'meinv'))
    p1.start()
    p2.start()
    c1.start()
    c2.start()
    p1.join()
    p2.join()
    q.put(None)
    q.put(None)

Tips:此方法每次增加生产者就要相应增加p.join()和q.put(None),故也存在一定的缺陷。

【运行结果】:

leon生产了包子0
shuaige消费了leon生产了包子0
shadow生产了馒头0
meinv消费了shadow生产了馒头0
leon生产了包子1
shuaige消费了leon生产了包子1
leon生产了包子2
shuaige消费了leon生产了包子2
shadow生产了馒头1
meinv消费了shadow生产了馒头1
leon生产了包子3
shuaige消费了leon生产了包子3
shadow生产了馒头2
meinv消费了shadow生产了馒头2
shadow生产了馒头3
shuaige消费了shadow生产了馒头3
meinv获取到了一个空
shuaige获取到了一个空

2.5.4 JoinableQueue介绍

【创建方法】:

JoinableQueue([maxsize])
创建可连接的共享进程队列。这就像是一个Queue对象,但队列允许项目的使用者通知生产者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。

【实例方法】:

q.task_done()
使用者使用此方法发出信号,表示q.get()返回的项目已经被处理。如果调用此方法的次数大于从队列中删除的项目数量,将引发ValueError异常。

q.join()
生产者将使用此方法进行阻塞,直到队列中所有项目均被处理。阻塞将持续到为队列中的每个项目均调用q.task_done()方法为止。
下面的例子说明如何建立永远运行的进程,使用和处理队列上的项目。生产者将项目放入队列,并等待它们被处理。

【示例】:JoinableQueue版生产者消费者模型

import time
import random
from multiprocessing import Process,JoinableQueue

def consumer(q,name):
    while True:
        food = q.get()
        print('\033[31m%s消费了%s\033[0m' % (name,food))
        time.sleep(random.randint(1,3))
        q.task_done()   # count - 1

def producer(name,food,q):
    for i in range(4):
        time.sleep(random.randint(1,3))
        f = '%s生产了%s%s'%(name,food,i)
        print(f)
        q.put(f)
    q.join()            # 阻塞,直到一个队列中的所有数据全部被处理完毕

if __name__  == '__main__':
    q = JoinableQueue(20)
    p1 = Process(target=producer,args=('leon','包子',q))
    p2 = Process(target=producer,args=('shadow','馒头', q))
    c1 = Process(target=consumer,args=(q,'shuaige'))
    c2 = Process(target=consumer,args=(q,'meinv'))
    p1.start()
    p2.start()
    c1.daemon = True   # 设置为守护进程 主进程中的代码执行完毕之后,子进程自动结束
    c2.daemon = True
    c1.start()
    c2.start()
    p1.join()
    p2.join()           # 感知一个进程的结束

【运行结果】:

shadow生产了馒头0
shuaige消费了shadow生产了馒头0
leon生产了包子0
meinv消费了leon生产了包子0
shadow生产了馒头1
shuaige消费了shadow生产了馒头1
shadow生产了馒头2
meinv消费了shadow生产了馒头2
leon生产了包子1
shuaige消费了leon生产了包子1
leon生产了包子2
shadow生产了馒头3
meinv消费了leon生产了包子2
leon生产了包子3
shuaige消费了shadow生产了馒头3
meinv消费了leon生产了包子3

【程序执行过程】:

  • 在消费者这一端:
  1. 每次获取一个数据
  2. 处理一个数据
  3. 发送一个记号:标志一个数据被处理成功
  • 在生产者这一端:
  1. 每一次生产一个数据,且每一次生产的数据都放在队列中
  2. 在队列中刻上一个记号
  3. 当生产者全部生产完毕之后
  4. join信号:已经停止生产数据了,且要等待之前被刻上的记号都被消费完,当数据都被处理完时,join阻塞结束
  • consumer 中把所有的任务消耗完
  • producer 的 join感知到,停止阻塞
  • 所有的producer进程结束
  • 主进程中的join结束
  • 主进程中代码结束
  • 守护进程(消费者的进程)结束

2.6 multiprocess.Pipe模块

2.6.1 管道介绍

【创建方法】:

Pipe([duplex])
在进程之间创建一条管道,并返回元组(conn1,conn2),其中conn1,conn2表示管道两端的连接对象,强调一点:必须在产生Process对象之前产生管道。

【参数介绍】:

[dumplex]
默认管道是全双工的,如果将duplex射成False,conn1只能用于接收,conn2只能用于发送。

【实例方法】:

conn1.recv()
接收conn2.send(obj)发送的对象。如果没有消息可接收,recv方法会一直阻塞。如果连接的另外一端已经关闭,那么recv方法会抛出EOFError。

conn1.send(obj)
通过连接发送对象。obj是与序列化兼容的任意对象。

conn1.close()
关闭连接。如果conn1被垃圾回收,将自动调用此方法

conn1.fileno()
返回连接使用的整数文件描述符

conn1.poll([timeout])
如果连接上的数据可用,返回True。timeout指定等待的最长时限。如果省略此参数,方法将立即返回结果。如果将timeout射成None,操作将无限期地等待数据到达。

conn1.recv_bytes([maxlength])
接收c.send_bytes()方法发送的一条完整的字节消息。maxlength指定要接收的最大字节数。如果进入的消息,超过了这个最大值,将引发IOError异常,并且在连接上无法进行进一步读取。如果连接的另外一端已经关闭,再也不存在任何数据,将引发EOFError异常。

conn.send_bytes(buffer [, offset [, size]])
通过连接发送字节数据缓冲区,buffer是支持缓冲区接口的任意对象,offset是缓冲区中的字节偏移量,而size是要发送字节数。结果数据以单条消息的形式发出,然后调用c.recv_bytes()函数进行接收

conn1.recv_bytes_into(buffer [, offset])
接收一条完整的字节消息,并把它保存在buffer对象中,该对象支持可写入的缓冲区接口(即bytearray对象或类似的对象)。offset指定缓冲区中放置消息处的字节位移。返回值是收到的字节数。如果消息长度大于可用的缓冲区空间,将引发BufferTooShort异常。

2.6.2 管道的使用方法

Tips:如果是生产者或消费者中都没有使用管道的某个端点,就应将它关闭。这也说明了为何在生产者中关闭了管道的输出端,在消费者中关闭管道的输入端。如果忘记执行这些步骤,程序可能在消费者中的recv()操作上挂起。管道是由操作系统进行引用计数的,必须在所有进程中关闭管道后才能生成EOFError异常。因此,在生产者中关闭管道不会有任何效果,除非消费者也关闭了相同的管道端点。

【示例】:引发EOFERROR

from multiprocessing import Pipe,Process

def func(conn1,conn2):
    conn2.close()
    while True:
        try :
            msg = conn1.recv()
            print(msg)
        except EOFError:
            conn1.close()
            break

if __name__ == '__main__':
    conn1,conn2 = Pipe()
    Process(target=func,args=(conn1,conn2)).start()
    conn1.close()
    for i in range(5):
        conn2.send('测试%s'%i)
    conn2.close()

【运行结果】:

测试0
测试1
测试2
测试3
测试4
测试5

2.6.3 生产消费者模型

【示例】:

from multiprocessing import Lock,Pipe,Process

def producer(consume,produce,name,food):
    consume.close()
    for i in range(10):
        f = '%s生产%s%s'%(name,food,i)
        print(f)
        produce.send(f)
    produce.send(None)  # 有3个consume,所以发送3个None
    produce.send(None)
    produce.send(None)
    produce.close()

def consumer(consume,produce,name,lock):
    produce.close()
    while True:
            lock.acquire()
            food = consume.recv()
            lock.release()
            if food is None:
                consume.close()
                break
            print('%s吃了%s' % (name, food))

if __name__ == '__main__':
    consume,produce = Pipe()
    lock= Lock()

    p = Process(target=producer,args=(consume,produce,'leon','包子'))
    c1 = Process(target=consumer,args=(consume, produce, '张三',lock))
    c2 = Process(target=consumer,args=(consume, produce, '李四',lock))
    c3 = Process(target=consumer,args=(consume, produce, '王五',lock))

    c1.start()
    c2.start()
    c3.start()
    p.start()

    consume.close()
    produce.close()

【运行结果】:

leon生产包子0
leon生产包子1
leon生产包子2
leon生产包子3
张三吃了leon生产包子0
leon生产包子4
李四吃了leon生产包子1
leon生产包子5
leon生产包子6
leon生产包子7
王五吃了leon生产包子2
leon生产包子8
张三吃了leon生产包子3
leon生产包子9
李四吃了leon生产包子4
王五吃了leon生产包子5
张三吃了leon生产包子6
李四吃了leon生产包子7
王五吃了leon生产包子8
张三吃了leon生产包子9

2.7 进程间数据共享

进程间数据是独立的,可以借助于队列或管道实现通信,二者都是基于消息传递的。虽然进程间数据独立,但可以通过Manager实现数据共享。

Tips:进程间应该尽量避免通信,即便需要通信,也应该选择进程安全的工具来避免加锁带来的问题。

【示例】:

from multiprocessing import Manager,Process,Lock

def work(d,lock):
    with lock:      # 不加锁而操作共享的数据,肯定会出现数据错乱
        d['count']-=1

if __name__ == '__main__':
    lock=Lock()
    with Manager() as m:
        dic=m.dict({'count':100})
        p_l=[]

        for i in range(50):
            p=Process(target=work,args=(dic,lock))
            p_l.append(p)
            p.start()

        for p in p_l:
            p.join()

        print('主进程',dic)

【运行结果】:

主进程 {'count': 50}

2.8 进程池和multiprocess.Pool模块

定义一个池子,在里面放上固定数量的进程,有需求来了,就拿一个池中的进程来处理任务,等到处理完毕,进程并不关闭,而是将进程再放回进程池中继续等待任务。如果有很多任务需要执行,池中的进程数量不够,任务就要等待之前的进程执行任务完毕归来,拿到空闲进程才能继续执行。也就是说,池中进程的数量是固定的,那么同一时间最多有固定数量的进程在运行。这样不会增加操作系统的调度难度,还节省了开闭进程的时间,也一定程度上能够实现并发效果。

Tips:进程池数量设定原则:cpu核数+1。

2.8.1 进程池介绍

【创建方法】:

Pool([numprocess  [,initializer [, initargs]]])
创建进程池

【参数介绍】:

numprocess:要创建的进程数,如果省略,将默认使用cpu_count()的值
initializer:是每个工作进程启动时要执行的可调用对象,默认为None
initargs:是要传给initializer的参数组

【实例方法】:

p.apply(func [, args [, kwargs]])
在一个池工作进程中执行func(*args,**kwargs),然后返回结果。
'''需要强调的是:此操作并不会在所有池工作进程中并执行func函数。如果要通过不同参数并发地执行func函数,必须从不同线程调用p.apply()函数或者使用p.apply_async()'''

p.apply_async(func [, args [, kwargs]])
在一个池工作进程中执行func(*args,**kwargs),然后返回结果。
'''此方法的结果是AsyncResult类的实例,callback是可调用对象,接收输入参数。当func的结果变为可用时,将理解传递给callback。callback禁止执行任何阻塞操作,否则将接收其他异步操作中的结果。'''

p.close()
关闭进程池,防止进一步操作。如果所有操作持续挂起,它们将在工作进程终止前完成

P.jion()
等待所有工作进程退出。此方法只能在close()或teminate()之后调用

方法apply_async()和map_async()的返回值是AsyncResul的实例obj。实例具有以下方法:
obj.get():返回结果,如果有必要则等待结果到达。timeout是可选的。如果在指定时间内还没有到达,将引发一场。如果远程操作中引发了异常,它将在调用此方法时再次被引发。
obj.ready():如果调用完成,返回True
obj.successful():如果调用完成且没有引发异常,返回True,如果在结果就绪之前调用此方法,引发异常
obj.wait([timeout]):等待结果变为可用。
obj.terminate():立即终止所有工作进程,同时不执行任何清理或结束任何挂起工作。如果p被垃圾回收,将自动调用此函数

2.8.2 进程池效率测试

【示例】:

import time
from multiprocessing import Pool,Process

def func(n):
    for i in range(10):
        m=n+1

if __name__ == '__main__':
    start = time.time()
    pool = Pool(5)                  # 5个进程
    pool.map(func,range(100))       # 100个任务
    t1 = time.time() - start

    start = time.time()
    p_lst = []
    for i in range(100):
        p = Process(target=func,args=(i,))  # 100个进程
        p_lst.append(p)
        p.start()
    for p in p_lst :p.join()
    t2 = time.time() - start

    print('进程池时间: ',t1)
    print('多进程时间: ',t2)

【运行结果】:

进程池时间:  0.14059162139892578
多进程时间:  2.641685962677002

2.8.3 进程池的同步和异步

p.map(funcname,iterable)   
# 默认异步的执行任务,且自带close和join,所有结果为[]

p.apply                    
# 同步调用,只有当func执行完之后,才会继续向下执行其他代码
# ret = apply(func,args=())返回值就是func的return

p.apply_async              
# 异步调用并且和主进程完全异步,当func被注册进入一个进程之后,程序就继续向下执行,
# 需要手动close 和 join,需要先close后join来保持多进程和主进程代码的同步性
# apply_async(func,args=()) 返回值 : apply_async返回的对象obj,获取func的返回值obj.get()
# get会阻塞直到对应的func执行完毕拿到结果,使用apply_async给进程池分配任务,

2.8.4 进程池的返回值

【示例】:p.map

import time
from multiprocessing import Pool

def func(i):
    time.sleep(0.5)
    return i*i

if __name__ == '__main__':
    p = Pool(5)     # 进程池中从无到有创建五个进程,以后一直是这五个进程在执行任务
    ret = p.map(func,range(10))
    print(ret)

【运行结果】:

[0, 1, 4, 9, 16, 25, 36, 49, 64, 81]        # 一起出现

【示例】:p.apply

from multiprocessing import Pool

def func(i):
    return i*i

if __name__ == '__main__':
    p = Pool(5)
    for i in range(10):
        res = p.apply(func,args=(i,))   # 同步调用,直到本次任务执行完毕拿到res,等待任务func执行的过程中可能有阻塞也可能没有阻塞,但不管该任务是否存在阻塞,同步调用都会在原地等着
        print(res)

【运行结果】:

0
1
4
9
16
25
36
49
64
81      # 一起出现

【示例】:p.apply_async

import time
from multiprocessing import Pool

def func(i):
    time.sleep(0.5)
    return i*i

if __name__ == '__main__':
    p = Pool(5)
    res_l = []
    for i in range(10):
        res = p.apply_async(func,args=(i,)) # 异步运行,根据进程池中有的进程数,每次最多5个子进程
# 在异步执行,返回结果之后,将结果放入列表,归还进程,
# 之后再执行新的任务,需要注意的是进程池中的5个进程不
# 会同时开启或者同时结束,而是执行完一个就释放一个进
# 程,这个进程就去接收新的任务。 
        res_l.append(res)
# 异步apply_async用法:如果使用异步提交的任务,主进程需要使用jion,等待进程池内任务都处理完,然后可以用get收集结果,否则主进程结束,进程池可能还没来得及执行,也就跟着一起结束了

for res in res_l:print(res.get())       # 使用get来获取apply_aync的结果,如果是apply,则没有get方法,因为apply是同步执行,立刻获取结果,也根本无需get

【运行结果】:

0
1
4
9
16
25
36
49
64
81          # 5个5个的出现

2.8.5 回调函数

需要回调函数的场景:进程池中任何一个任务一旦处理完,就立即告知主进程可以处理我的结果了。主进程则调用一个函数去处理该结果,该函数即回调函数。

如果在主进程中等待进程池中所有任务都执行完毕后,再统一处理结果,则无需回调函数。

我们可以把耗时间(阻塞)的任务放到进程池中,然后指定回调函数(主进程负责执行),这样主进程在执行回调函数时就省去了I/O的过程,直接拿到的是任务的结果。

【示例】:

import os
from multiprocessing import Pool

def func1(n):
    print('in func1',os.getpid())
    return n*n

def func2(nn):
    print('in func2',os.getpid())
    print(nn)

if __name__ == '__main__':
    print('主进程 :',os.getpid())
    p = Pool(5)
    for i in range(2):
        p.apply_async(func1,args=(10,),callback=func2)
    p.close()
    p.join()

【运行结果】:

主进程 : 8260
in func1 2524
in func1 5632
in func2 8260
100
in func2 8260
100

【示例】:爬虫示例

import re
from urllib.request import urlopen
from multiprocessing import Pool

def get_page(url,pattern):
    response=urlopen(url).read().decode('utf-8')
    return pattern,response   # 正则表达式编译结果 网页内容

def parse_page(info):
    pattern,page_content=info
    res=re.findall(pattern,page_content)
    for item in res:
        dic={
            'index':item[0].strip(),
            'title':item[1].strip(),
            'actor':item[2].strip(),
            'time':item[3].strip(),
        }
        print(dic)

if __name__ == '__main__':
    regex = r'<dd>.* <.* class="board-index.* >(\d+)</i>.* title="(.* )".* class="movie-item-info".* <p class="star">(.* )</p>.* <p class="releasetime">(.* )</p>'
    pattern1=re.compile(regex,re.S)
    url_dic={'http://xxxxx.com/board/7':pattern1}

    p=Pool()
    res_l=[]
    for url,pattern in url_dic.items():
        res=p.apply_async(get_page,args=(url,pattern),callback=parse_page)
        res_l.append(res)

    for i in res_l:
        i.get()

【匹配规则分析】:

# html块:
<dd>
                        <i class="board-index board-index-2">2</i>
    <a href="/films/1205514" title="雪怪大冒险" class="image-link" data-act="boarditem-click" data-val="{movieId:1205514}">
      <img src="//ms0.meituan.net/mywww/image/loading_2.e3d934bf.png" alt="" class="poster-default" />
      <img data-src="http://p0.meituan.net/movie/5a0278ef183a81f36d067521bcb191e81044827.jpg@160w_220h_1e_1c" alt="雪怪大冒险" class="board-img" />
    </a>
    <div class="board-item-main">
      <div class="board-item-content">
              <div class="movie-item-info">
        <p class="name"><a href="/films/1205514" title="雪怪大冒险" data-act="boarditem-click" data-val="{movieId:1205514}">雪怪大冒险</a></p>
        <p class="star">
                主演:赞达亚·科尔曼,查宁·塔图姆,吉娜·罗德里格兹
        </p>
<p class="releasetime">上映时间:2018-10-19</p>    </div>
    <div class="movie-item-number score-num">
<p class="score"><i class="integer">9.</i><i class="fraction">3</i></p>       
    </div>
      </div>
    </div>
                </dd>
              
# 正则表达式:
<dd>.* <.* class="board-index.* >(\d+)</i>.* title="(.* )".* class="movie-item-info".* <p class="star">(.* )</p>.* <p class="releasetime">(.* )</p>
温馨提示:本文最后更新于2022-12-20 20:57:45,已超过487天没有更新。某些文章具有时效性,若文章内容或图片资源有错误或已失效,请联系站长。谢谢!
转载请注明本文链接:https://blog.leonshadow.cn/763482/1290.html
© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享