|
2#
楼主 |
发表于 2018-2-26 15:48:38
|
只看该作者
multiprocessing是python的多进程管理包,和threading.Thread类似。
1、multiprocessing模块
直接从侧面用subprocesses替换线程使用GIL的方式,由于这一点,multiprocessing模块可以让程序
员在给定的机器上充分的利用CPU。在multiprocessing中,通过创建Process对象生成进程,然后调
用它的start()方法,
- from multiprocessing import Process
- def func(name):
- print('hello', name)
- if __name__ == "__main__":
- p = Process(target=func,args=('zhangyanlin',))
- p.start()
- p.join() # 等待进程执行完毕
复制代码 在使用并发设计的时候最好尽可能的避免共享数据,尤其是在使用多进程的时候。 如果你真有需要
要共享数据, multiprocessing提供了两种方式。
(1)multiprocessing,Array,Value
数据可以用Value或Array存储在一个共享内存地图里,如下:
- from multiprocessing import Array,Value,Process
- def func(a,b):
- a.value = 3.333333333333333
- for i in range(len(b)):
- b[i] = -b[i]
- if __name__ == "__main__":
- num = Value('d',0.0)
- arr = Array('i',range(11))
- c = Process(target=func,args=(num,arr))
- d= Process(target=func,args=(num,arr))
- c.start()
- d.start()
- c.join()
- d.join()
- print(num.value)
- for i in arr:
- print(i)
- 输出:
- 3.1415927
- [0, -1, -2, -3, -4, -5, -6, -7, -8, -9]
复制代码 创建num和arr时,“d”和“i”参数由Array模块使用的typecodes创建:“d”表示一个双精度的浮点数,
“i”表示一个有符号的整数,这些共享对象将被线程安全的处理。
Array(‘i’, range(10))中的‘i’参数:
- ‘c’: ctypes.c_char ‘u’: ctypes.c_wchar ‘b’: ctypes.c_byte ‘B’: ctypes.c_ubyte
- ‘h’: ctypes.c_short ‘H’: ctypes.c_ushort ‘i’: ctypes.c_int ‘I’: ctypes.c_uint
- ‘l’: ctypes.c_long, ‘L’: ctypes.c_ulong ‘f’: ctypes.c_float ‘d’: ctypes.c_double
复制代码 (2)multiprocessing,Manager
由Manager()返回的manager提供list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore,
Condition, Event, Barrier, Queue, Value and Array类型的支持。
- from multiprocessing import Process,Manager
- def f(d,l):
- d["name"] = "zhangyanlin"
- d["age"] = 18
- d["Job"] = "pythoner"
- l.reverse()
- if __name__ == "__main__":
- with Manager() as man:
- d = man.dict()
- l = man.list(range(10))
- p = Process(target=f,args=(d,l))
- p.start()
- p.join()
- print(d)
- print(l)
- 输出:
- {0.25: None, 1: '1', '2': 2}
- [9, 8, 7, 6, 5, 4, 3, 2, 1, 0]
复制代码 Server process manager比 shared memory 更灵活,因为它可以支持任意的对象类型。另外,一个单
独的manager可以通过进程在网络上不同的计算机之间共享,不过他比shared memory要慢。
2、进程池(Using a pool of workers)
Pool类描述了一个工作进程池,他有几种不同的方法让任务卸载工作进程。
进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供
使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。
我们可以用Pool类创建一个进程池, 展开提交的任务给进程池。 例:
- #apply
- from multiprocessing import Pool
- import time
- def f1(i):
- time.sleep(0.5)
- print(i)
- return i + 100
- if __name__ == "__main__":
- pool = Pool(5)
- for i in range(1,31):
- pool.apply(func=f1,args=(i,))
- #apply_async
- def f1(i):
- time.sleep(0.5)
- print(i)
- return i + 100
- def f2(arg):
- print(arg)
- if __name__ == "__main__":
- pool = Pool(5)
- for i in range(1,31):
- pool.apply_async(func=f1,args=(i,),callback=f2)
- pool.close()
- pool.join()
复制代码 一个进程池对象可以控制工作进程池的哪些工作可以被提交,它支持超时和回调的异步结果,有一个
类似map的实现。
processes :使用的工作进程的数量,如果processes是None那么使用 os.cpu_count()返回的数量。
initializer: 如果initializer是None,那么每一个工作进程在开始的时候会调用initializer(*initargs)。
maxtasksperchild:工作进程退出之前可以完成的任务数,完成后用一个心的工作进程来替代原进程,
来让闲置的资源被释放。maxtasksperchild默认是None,意味着只要Pool存在工作进程就会一直存活。
context: 用在制定工作进程启动时的上下文,一般使用 multiprocessing.Pool() 或者一个context对象
的Pool()方法来创建一个池,两种方法都适当的设置了context
注意:Pool对象的方法只可以被创建pool的进程所调用。
New in version 3.2: maxtasksperchild
New in version 3.4: context
进程池的方法
apply(func[, args[, kwds]]) :使用arg和kwds参数调用func函数,结果返回前会一直阻塞,由于这个
原因,apply_async()更适合并发执行,另外,func函数仅被pool中的一个进程运行。
apply_async(func[, args[, kwds[, callback[, error_callback]]]]) : apply()方法的一个变体,会返回一个
结果对象。如果callback被指定,那么callback可以接收一个参数然后被调用,当结果准备好回调时会调
用callback,调用失败时,则用error_callback替换callback。 Callbacks应被立即完成,否则处理结果的
线程会被阻塞。
close() : 阻止更多的任务提交到pool,待任务完成后,工作进程会退出。
terminate() : 不管任务是否完成,立即停止工作进程。在对pool对象进程垃圾回收的时候,会立即
调用terminate()。
join() : wait工作线程的退出,在调用join()前,必须调用close() or terminate()。这样是因为被终止的
进程需要被父进程调用wait(join等价与wait),否则进程会成为僵尸进程。
map(func, iterable[, chunksize])¶
map_async(func, iterable[, chunksize[, callback[, error_callback]]])¶
imap(func, iterable[, chunksize])¶
imap_unordered(func, iterable[, chunksize])
starmap(func, iterable[, chunksize])¶
starmap_async(func, iterable[, chunksize[, callback[, error_back]]])
python 协程
线程和进程的操作是由程序触发系统接口,最后的执行者是系统;协程的操作则是程序员。
协程存在的意义:对于多线程应用,CPU通过切片的方式来切换线程间的执行,线程切换时需要
耗时(保存状态,下次继续)。协程,则只使用一个线程,在一个线程中规定某个代码块执行顺序。
协程的适用场景:当程序中存在大量不需要CPU的操作时(IO),适用于协程;
event loop是协程执行的控制点, 如果你希望执行协程, 就需要用到它们。
event loop提供了如下的特性:
注册、执行、取消延时调用(异步函数)
创建用于通信的client和server协议(工具)
创建和别的程序通信的子进程和协议(工具)
把函数调用送入线程池中
- import asyncio
-
- async def cor1():
- print("COR1 start")
- await cor2()
- print("COR1 end")
-
- async def cor2():
- print("COR2")
-
- loop = asyncio.get_event_loop()
- loop.run_until_complete(cor1())
- loop.close()
复制代码 最后三行是重点。
asyncio.get_event_loop() : asyncio启动默认的event loop
run_until_complete() : 这个函数是阻塞执行的,知道所有的异步函数执行完成,
close() : 关闭event loop。
1、greenlet
- import greenlet
- def fun1():
- print("12")
- gr2.switch()
- print("56")
- gr2.switch()
- def fun2():
- print("34")
- gr1.switch()
- print("78")
- gr1 = greenlet.greenlet(fun1)
- gr2 = greenlet.greenlet(fun2)
- gr1.switch()
复制代码 2、gevent
gevent属于第三方模块需要下载安装包
pip3 install --upgrade pip3
pip3 install gevent
- import gevent
- def fun1():
- print("www.baidu.com") # 第一步
- gevent.sleep(0)
- print("end the baidu.com") # 第三步
- def fun2():
- print("www.zhihu.com") # 第二步
- gevent.sleep(0)
- print("end th zhihu.com") # 第四步
- gevent.joinall([
- gevent.spawn(fun1),
- gevent.spawn(fun2),
- ])
复制代码
|
|