51Testing软件测试论坛

标题: python进程、线程、协程 [打印本页]

作者: 一月蔷薇_456    时间: 2018-2-26 15:38
标题: python进程、线程、协程
进程与线程的历史

        我们都知道计算机是由硬件和软件组成的。硬件中的CPU是计算机的核心,它承担计算机的所
有任务。 操作系统是运行在硬件之上的软件,是计算机的管理者,它负责资源的管理和分配、任务
的调度。

       程序是运行在系统上的具有某种功能的软件,比如说浏览器,音乐播放器等。 每次执行程
序的时候,都会完成一定的功能,比如说浏览器帮我们打开网页,为了保证其独立性,就需要一个专
门的管理和控制执行程序的数据结构——进程控制块。 进程就是一个程序在一个数据集上的一次动
态执行过程。 进程一般由程序、数据集、进程控制块三部分组成。我们编写的程序用来描述进程要
完成哪些功能以及如何完成;数据集则是程序在执行过程中所需要使用的资源;进程控制块用来记
录进程的外部特征,描述进程的执行变化过程,系统可以利用它来控制和管理进程,它是系统感知
进程存在的唯一标志。

        在早期的操作系统里,计算机只有一个核心,进程执行程序的最小单位,任务调度采用时间
片轮转的抢占式方式进行进程调度。每个进程都有各自的一块独立的内存,保证进程彼此间的内
存地址空间的隔离。 随着计算机技术的发展,进程出现了很多弊端,一是进程的创建、撤销和切
换的开销比较大,二是由于对称多处理机(对称多处理机(SymmetricalMulti-Processing)又叫SMP,
是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构)的出现,
可以满足多个运行单位,而多进程并行开销过大。 这个时候就引入了线程的概念。

      线程也叫轻量级进程,它是一个基本的CPU执行单元,也是程序执行过程中的最小单元,由线程ID、
程序计数器、寄存器集合 和堆栈共同组成。线程的引入减小了程序并发执行时的开销,提高了操作
系统的并发性能。 线程没有自己的系统资源,只拥有在运行时必不可少的资源。但线程可以与同属
与同一进程的其他线程共享进程所拥有的其他资源。
进程与线程之间的关系

     线程是属于进程的,线程运行在进程空间内,同一进程所产生的线程共享同一内存空间,当进程退
出时该进程所产生的线程都会被强制退出并清除。线程可与属于同一进程的其它线程共享进程所拥有
的全部资源,但是其本身基本上不拥有系统资源,只拥有一点在运行中必不可少的信息(如程序计数器、
一组寄存器和栈)。
python 线程


Threading用于提供线程相关的操作,线程是应用程序中工作的最小单元。
1、threading模块

threading 模块建立在 _thread 模块之上。thread 模块以低级、原始的方式来处理和控制线程,而
threading 模块通过对 thread 进行二次封装,提供了更方便的 api 来处理线程。
  1. import threading
  2. import time

  3. def worker(num):
  4.     """
  5.     thread worker function
  6.     :return:
  7.     """
  8.     time.sleep(1)
  9.     print("The num is  %d" % num)
  10.     return

  11. for i in range(20):
  12.     t = threading.Thread(target=worker,args=(i,),name=“t.%d” % i)
  13.     t.start()
复制代码
上述代码创建了20个“前台”线程,然后控制器就交给了CPU,CPU根据指定算法进行调度,分片执
行指令。
Thread方法说明
t.start() : 激活线程,
t.getName() : 获取线程的名称
t.setName() : 设置线程的名称
t.name : 获取或设置线程的名称
t.is_alive() : 判断线程是否为激活状态
t.isAlive() :判断线程是否为激活状态
t.setDaemon() 设置为后台线程或前台线程(默认:False);通过一个布尔值设置线程是否为守护线
程,必须在执行start()方法之后才可以使用。如果是后台线程,主线程执行过程中,后台线程也在
进行,主线程执行完毕后,后台线程不论成功与否,均停止;如果是前台线程,主线程执行过程中,
前台线程也在进行,主线程执行完毕后,等待前台线程也执行完成后,程序停止

t.isDaemon() : 判断是否为守护线程
t.ident :获取线程的标识符。线程标识符是一个非零整数,只有在调用了start()方法之后该属性才
有效,否则它只返回None。
t.join() :逐个执行每个线程,执行完毕后继续往下执行,该方法使得多线程变得无意义
t.run() :线程被cpu调度后自动执行线程对象的run方法

2、线程锁threading.RLock和threading.Lock
由于线程之间是进行随机调度,并且每个线程可能只执行n条执行之后,CPU接着执行其他线程。
为了保证数据的准确性,引入了锁的概念。所以,可能出现如下问题:
例:假设列表A的所有元素就为0,当一个线程从前向后打印列表的所有元素,另外一个线程则从后
向前修改列表的元素为1,那么输出的时候,列表的元素就会一部分为0,一部分为1,这就导致了数据
的不一致。锁的出现解决了这个问题。
  1. import threading
  2. import time

  3. globals_num = 0

  4. lock = threading.RLock()

  5. def Func():
  6.     lock.acquire()  # 获得锁
  7.     global globals_num
  8.     globals_num += 1
  9.     time.sleep(1)
  10.     print(globals_num)
  11.     lock.release()  # 释放锁

  12. for i in range(10):
  13.     t = threading.Thread(target=Func)
  14.     t.start()
复制代码
3、threading.RLock和threading.Lock 的区别

RLock允许在同一线程中被多次acquire。而Lock却不允许这种情况。 如果使用RLock,那么acquire
和release必须成对出现,即调用了n次acquire,必须调用n次的release才能真正释放所占用的琐。
  1. import threading
  2. lock = threading.Lock()    #Lock对象
  3. lock.acquire()
  4. lock.acquire()  #产生了死琐。
  5. lock.release()
  6. lock.release() 

  7. import threading
  8. rLock = threading.RLock()  #RLock对象
  9. rLock.acquire()
  10. rLock.acquire()    #在同一线程内,程序不会堵塞。
  11. rLock.release()
  12. rLock.release()
复制代码
4、threading.Event
python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。
事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时
就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。
clear:将“Flag”设置为False
set:将“Flag”设置为True
Event.isSet() :判断标识位是否为Ture。
  1. import threading

  2. def do(event):
  3.     print('start')
  4.     event.wait()
  5.     print('execute')

  6. event_obj = threading.Event()
  7. for i in range(10):
  8.     t = threading.Thread(target=do, args=(event_obj,))
  9.     t.start()

  10. event_obj.clear()
  11. inp = input('input:')
  12. if inp == 'true':
  13.     event_obj.set()
复制代码
当线程执行的时候,如果flag为False,则线程会阻塞,当flag为True的时候,线程不会阻塞。它提供了
本地和远程的并发性。

5、threading.Condition
一个condition变量总是与某些类型的锁相联系,这个可以使用默认的情况或创建一个,当几个
condition变量必须共享和同一个锁的时候,是很有用的。锁是conditon对象的一部分:没有必要分
别跟踪。

condition变量服从上下文管理协议:with语句块封闭之前可以获取与锁的联系。 acquire() 和 release()
会调用与锁相关联的相应的方法。
其他和锁关联的方法必须被调用,wait()方法会释放锁,当另外一个线程使用 notify() or notify_all()
唤醒它之前会一直阻塞。一旦被唤醒,wait()会重新获得锁并返回,

Condition类实现了一个conditon变量。 这个conditiaon变量允许一个或多个线程等待,直到他们被
另一个线程通知。 如果lock参数,被给定一个非空的值,,那么他必须是一个lock或者Rlock对象,
它用来做底层锁。否则,会创建一个新的Rlock对象,用来做底层锁。

wait(timeout=None) : 等待通知,或者等到设定的超时时间。当调用这wait()方法时,如果调用它
的线程没有得到锁,那么会抛出一个RuntimeError 异常。 wati()释放锁以后,在被调用相同条件的
另一个进程用notify() or notify_all() 叫醒之前 会一直阻塞。wait() 还可以指定一个超时时间。

如果有等待的线程,notify()方法会唤醒一个在等待conditon变量的线程。notify_all() 则会唤醒所有
在等待conditon变量的线程。
注意: notify()和notify_all()不会释放锁,也就是说,线程被唤醒后不会立刻返回他们的wait() 调用。
除非线程调用notify()和notify_all()之后放弃了锁的所有权。

在典型的设计风格里,利用condition变量用锁去通许访问一些共享状态,线程在获取到它想得到的
状态前,会反复调用wait()。修改状态的线程在他们状态改变时调用 notify() or notify_all(),用这种方
式,线程会尽可能的获取到想要的一个等待者状态。 例子: 生产者-消费者模型,
  1. import threading
  2. import time
  3. def consumer(cond):
  4.     with cond:
  5.         print("consumer before wait")
  6.         cond.wait()
  7.         print("consumer after wait")

  8. def producer(cond):
  9.     with cond:
  10.         print("producer before notifyAll")
  11.         cond.notifyAll()
  12.         print("producer after notifyAll")

  13. condition = threading.Condition()
  14. c1 = threading.Thread(name="c1", target=consumer, args=(condition,))
  15. c2 = threading.Thread(name="c2", target=consumer, args=(condition,))

  16. p = threading.Thread(name="p", target=producer, args=(condition,))

  17. c1.start()
  18. time.sleep(2)
  19. c2.start()
  20. time.sleep(2)
  21. p.start()
复制代码
6、queue模块
Queue 就是对队列,它是线程安全的
举例来说,我们去麦当劳吃饭。饭店里面有厨师职位,前台负责把厨房做好的饭卖给顾客,顾客则去
前台领取做好的饭。这里的前台就相当于我们的队列。形成管道样,厨师做好饭通过前台传送给顾客,
所谓单向队列
这个模型也叫生产者-消费者模型。
  1. import queue

  2. q = queue.Queue(maxsize=0)  # 构造一个先进显出队列,maxsize指定队列长度,为0 时,表示队列长度无限制。

  3. q.join()    # 等到队列为kong的时候,在执行别的操作
  4. q.qsize()   # 返回队列的大小 (不可靠)
  5. q.empty()   # 当队列为空的时候,返回True 否则返回False (不可靠)
  6. q.full()    # 当队列满的时候,返回True,否则返回False (不可靠)
  7. q.put(item, block=True, timeout=None) #  将item放入Queue尾部,item必须存在,可以参数block默认为True,表示当队列满时,会等待队列给出可用位置,
  8.                          为False时为非阻塞,此时如果队列已满,会引发queue.Full 异常。 可选参数timeout,表示 会阻塞设置的时间,过后,
  9.                           如果队列无法给出放入item的位置,则引发 queue.Full 异常
  10. q.get(block=True, timeout=None) #   移除并返回队列头部的一个值,可选参数block默认为True,表示获取值的时候,如果队列为空,则阻塞,为False时,不阻塞,
  11.                       若此时队列为空,则引发 queue.Empty异常。 可选参数timeout,表示会阻塞设置的时候,过后,如果队列为空,则引发Empty异常。
  12. q.put_nowait(item) #   等效于 put(item,block=False)
  13. q.get_nowait() #    等效于 get(item,block=False)
复制代码
  1. 代码如下:

  2. 复制代码
  3. #!/usr/bin/env python
  4. import Queue
  5. import threading


  6. message = Queue.Queue(10)


  7. def producer(i):
  8.     while True:
  9.         message.put(i)


  10. def consumer(i):
  11.     while True:
  12.         msg = message.get()


  13. for i in range(12):
  14.     t = threading.Thread(target=producer, args=(i,))
  15.     t.start()

  16. for i in range(10):
  17.     t = threading.Thread(target=consumer, args=(i,))
  18.     t.start()
复制代码



作者: 一月蔷薇_456    时间: 2018-2-26 15:48
multiprocessing是python的多进程管理包,和threading.Thread类似。
1、multiprocessing模块
直接从侧面用subprocesses替换线程使用GIL的方式,由于这一点,multiprocessing模块可以让程序
员在给定的机器上充分的利用CPU。在multiprocessing中,通过创建Process对象生成进程,然后调
用它的start()方法,

  1. from multiprocessing import Process

  2. def func(name):
  3.     print('hello', name)


  4. if __name__ == "__main__":
  5.     p = Process(target=func,args=('zhangyanlin',))
  6.     p.start()
  7.     p.join()  # 等待进程执行完毕
复制代码
在使用并发设计的时候最好尽可能的避免共享数据,尤其是在使用多进程的时候。 如果你真有需要
要共享数据, multiprocessing提供了两种方式。
(1)multiprocessing,Array,Value
数据可以用Value或Array存储在一个共享内存地图里,如下:
  1. from multiprocessing import Array,Value,Process

  2. def func(a,b):
  3.     a.value = 3.333333333333333
  4.     for i in range(len(b)):
  5.         b[i] = -b[i]


  6. if __name__ == "__main__":
  7.     num = Value('d',0.0)
  8.     arr = Array('i',range(11))


  9.     c = Process(target=func,args=(num,arr))
  10.     d= Process(target=func,args=(num,arr))
  11.     c.start()
  12.     d.start()
  13.     c.join()
  14.     d.join()

  15.     print(num.value)
  16.     for i in arr:
  17.         print(i)
  18. 输出:
  19.   3.1415927
  20.   [0, -1, -2, -3, -4, -5, -6, -7, -8, -9]
复制代码
创建num和arr时,“d”和“i”参数由Array模块使用的typecodes创建:“d”表示一个双精度的浮点数,
“i”表示一个有符号的整数,这些共享对象将被线程安全的处理。
Array(‘i’, range(10))中的‘i’参数:

  1. ‘c’: ctypes.c_char     ‘u’: ctypes.c_wchar    ‘b’: ctypes.c_byte     ‘B’: ctypes.c_ubyte
  2. ‘h’: ctypes.c_short     ‘H’: ctypes.c_ushort    ‘i’: ctypes.c_int      ‘I’: ctypes.c_uint
  3. ‘l’: ctypes.c_long,    ‘L’: ctypes.c_ulong    ‘f’: ctypes.c_float    ‘d’: ctypes.c_double
复制代码
(2)multiprocessing,Manager
由Manager()返回的manager提供list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore,
Condition, Event, Barrier, Queue, Value and Array类型的支持。

  1. from multiprocessing import Process,Manager
  2. def f(d,l):
  3.     d["name"] = "zhangyanlin"
  4.     d["age"] = 18
  5.     d["Job"] = "pythoner"
  6.     l.reverse()

  7. if __name__ == "__main__":
  8.     with Manager() as man:
  9.         d = man.dict()
  10.         l = man.list(range(10))

  11.         p = Process(target=f,args=(d,l))
  12.         p.start()
  13.         p.join()

  14.         print(d)
  15.         print(l)

  16. 输出:
  17.   {0.25: None, 1: '1', '2': 2}
  18.   [9, 8, 7, 6, 5, 4, 3, 2, 1, 0]
复制代码
Server process manager比 shared memory 更灵活,因为它可以支持任意的对象类型。另外,一个单
独的manager可以通过进程在网络上不同的计算机之间共享,不过他比shared memory要慢。
2、进程池(Using a pool of workers)
Pool类描述了一个工作进程池,他有几种不同的方法让任务卸载工作进程。
进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供
使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。
我们可以用Pool类创建一个进程池, 展开提交的任务给进程池。 例:

  1. #apply
  2. from  multiprocessing import Pool
  3. import time

  4. def f1(i):
  5.     time.sleep(0.5)
  6.     print(i)
  7.     return i + 100

  8. if __name__ == "__main__":
  9.     pool = Pool(5)
  10.     for i in range(1,31):
  11.         pool.apply(func=f1,args=(i,))

  12. #apply_async
  13. def f1(i):
  14.     time.sleep(0.5)
  15.     print(i)
  16.     return i + 100
  17. def f2(arg):
  18.     print(arg)

  19. if __name__ == "__main__":
  20.     pool = Pool(5)
  21.     for i in range(1,31):
  22.         pool.apply_async(func=f1,args=(i,),callback=f2)
  23.     pool.close()
  24.     pool.join()
复制代码
一个进程池对象可以控制工作进程池的哪些工作可以被提交,它支持超时和回调的异步结果,有一个
类似map的实现。
processes :使用的工作进程的数量,如果processes是None那么使用 os.cpu_count()返回的数量。
initializer: 如果initializer是None,那么每一个工作进程在开始的时候会调用initializer(*initargs)。
maxtasksperchild:工作进程退出之前可以完成的任务数,完成后用一个心的工作进程来替代原进程,
来让闲置的资源被释放。maxtasksperchild默认是None,意味着只要Pool存在工作进程就会一直存活。
context: 用在制定工作进程启动时的上下文,一般使用 multiprocessing.Pool() 或者一个context对象
的Pool()方法来创建一个池,两种方法都适当的设置了context
注意:Pool对象的方法只可以被创建pool的进程所调用。
New in version 3.2: maxtasksperchild
New in version 3.4: context

进程池的方法

apply(func[, args[, kwds]]) :使用arg和kwds参数调用func函数,结果返回前会一直阻塞,由于这个
原因,apply_async()更适合并发执行,另外,func函数仅被pool中的一个进程运行。
apply_async(func[, args[, kwds[, callback[, error_callback]]]]) : apply()方法的一个变体,会返回一个
结果对象。如果callback被指定,那么callback可以接收一个参数然后被调用,当结果准备好回调时会调
用callback,调用失败时,则用error_callback替换callback。 Callbacks应被立即完成,否则处理结果的
线程会被阻塞。
close() : 阻止更多的任务提交到pool,待任务完成后,工作进程会退出。
terminate() : 不管任务是否完成,立即停止工作进程。在对pool对象进程垃圾回收的时候,会立即
调用terminate()。
join() : wait工作线程的退出,在调用join()前,必须调用close() or terminate()。这样是因为被终止的
进程需要被父进程调用wait(join等价与wait),否则进程会成为僵尸进程。
map(func, iterable[, chunksize])¶
map_async(func, iterable[, chunksize[, callback[, error_callback]]])¶
imap(func, iterable[, chunksize])¶
imap_unordered(func, iterable[, chunksize])
starmap(func, iterable[, chunksize])¶
starmap_async(func, iterable[, chunksize[, callback[, error_back]]])
python 协程


线程和进程的操作是由程序触发系统接口,最后的执行者是系统;协程的操作则是程序员。
协程存在的意义:对于多线程应用,CPU通过切片的方式来切换线程间的执行,线程切换时需要
耗时(保存状态,下次继续)。协程,则只使用一个线程,在一个线程中规定某个代码块执行顺序。
协程的适用场景:当程序中存在大量不需要CPU的操作时(IO),适用于协程;
event loop是协程执行的控制点, 如果你希望执行协程, 就需要用到它们。
event loop提供了如下的特性:
注册、执行、取消延时调用(异步函数)
创建用于通信的client和server协议(工具)
创建和别的程序通信的子进程和协议(工具)
把函数调用送入线程池中

  1. import asyncio

  2. async def cor1():
  3.     print("COR1 start")
  4.     await cor2()
  5.     print("COR1 end")

  6. async def cor2():
  7.     print("COR2")

  8. loop = asyncio.get_event_loop()
  9. loop.run_until_complete(cor1())
  10. loop.close()
复制代码
最后三行是重点。
asyncio.get_event_loop()  : asyncio启动默认的event loop
run_until_complete()  :  这个函数是阻塞执行的,知道所有的异步函数执行完成,
close()  :  关闭event loop。
1、greenlet

  1. import greenlet


  2. def fun1():
  3.     print("12")
  4.     gr2.switch()
  5.     print("56")
  6.     gr2.switch()

  7. def fun2():
  8.     print("34")
  9.     gr1.switch()
  10.     print("78")


  11. gr1 = greenlet.greenlet(fun1)
  12. gr2 = greenlet.greenlet(fun2)
  13. gr1.switch()
复制代码
2、gevent
gevent属于第三方模块需要下载安装包
pip3 install --upgrade pip3
pip3 install gevent

  1. import gevent

  2. def fun1():
  3.     print("www.baidu.com")   # 第一步
  4.     gevent.sleep(0)
  5.     print("end the baidu.com")  # 第三步

  6. def fun2():
  7.     print("www.zhihu.com")   # 第二步
  8.     gevent.sleep(0)
  9.     print("end th zhihu.com")  # 第四步

  10. gevent.joinall([
  11.     gevent.spawn(fun1),
  12.     gevent.spawn(fun2),
  13. ])
复制代码




作者: 海海豚    时间: 2018-2-26 15:50
谢谢分享
作者: 梦想家    时间: 2018-2-26 17:26

作者: alice_haha    时间: 2019-1-17 14:46
                                                   v
作者: Miss_love    时间: 2020-12-25 18:00
感谢分享




欢迎光临 51Testing软件测试论坛 (http://bbs.51testing.com/) Powered by Discuz! X3.2