Python 多进程多线程线程池进程池协程

news/2024/4/26 8:27:18/文章来源:https://blog.csdn.net/qq_39208536/article/details/129230628

目录

一、线程与进程很简单的介绍

1.1 线程与进程的区别

二、多进程Process

2.1  多进程与多线程的区别

2.2 多进程为啥要使用队列

2.3 控制进程运行顺序

2.3.1  join ,

2.3.1 daemon 守护进程 

2.4 进程id

2.5 进程 存活状态is_alive()

2.5 实现自定义多进程类

三、多线程 threading

3.1 线程锁

四、线程池、进程池

4.1 线程池

4.2 进程池

4.2.1 pool.map( func, iterable) 

4.2.2  pool.map_async( func, iterable) 

4.2.3   pool.apply(self, func, args=(), kwds={})

4.2.4   pool.apply_async(self, func, args=(), kwds={})

五、协程

六、进程的相关知识

6.1 进程的各种状态

6.2 上下文切换


一、线程与进程很简单的介绍

多任务的实现方式:

多进程、多线程、协程

串行运行:

运行完命令1之后,再运行命令2。

在linux 中 ,串行多条命令用&

我们在启动tomcat时,一般是需要启动同时观察日志输出的。

sh startup.sh & tail -f ../logs/catalina.out

并行运行:

命令1与命令2,同时运行。

apt install xx && apt install yy

同时下载xx 与 yy

1.1 线程与进程的区别

1、线程与进程最大的区别在于,线程是调度的基本单位,而进程则是资源拥有的基本单位。

2、资源(主要是内存资源):进程占用内存资源,线程使用的资源是进程的。

3、切换:

进程与进程间的切换,更消耗时间。

线程与线程之间,切换,速度比较快,因为线程之间,使用的资源,都是同一个进程的。

二、多进程Process

举例:多进程下载场景

一个下载场景,我们需要从网站上下载大量的图片。比如有一万条数据。我们需要将这一万张图片下载下来。

我们将大量图片的下载链接,放到队列里。

# 多进程
from multiprocessing import Process,Queuedef download(q: Queue):while True:url = q.get()print(url)if q.empty():breakif __name__ == '__main__':tasks = Queue()tasks.put("http://aaa.jpg")tasks.put("http://bbb.jpg")# target 函数的名字# args 函数,所需的参数,这里是元组,元组里只有一个元素时,也许需要加,p1 = Process(target=download,args=(tasks,)) # 创建进程1p2 = Process(target=download, args=(tasks,)) # 创建进程1p1.start() # 启动进程1p2.start() # 启动进程2

注意:

1、# target 函数的名字
    # args 函数,所需的参数,这里是元组,元组里只有一个元素时,也许需要加逗号

    # target 函数的名字# args 函数,所需的参数,这里是元组,元组里只有一个元素时,也许需要加,p1 = Process(target=download,args=(tasks,)) # 创建进程1p2 = Process(target=download, args=(tasks,)) # 创建进程1

2、我们这里启动了2个进程,来执行下载任务。进程启动后,是由操作系统控制执行的。具体是并发执行还是并行执行,这个是根据操作系统来的,如果系统是单核的,就只能是并发。
如果系统是多核的,可能是并行。

3、这里图片的下载列表,用的是队列,不是list。

2.1  多进程与多线程的区别

以上面的下载大量图片的场景为例:

多进程,会独享资源,2个进程不能共享变量(例如:不能共享list),所以实现共享资源的方式,就要使用其他手段,如使用队列Queue 、 内存数据库redis等等

多线程:占用资源少,2个线程是共享变量的。一般的网盘下载之类的应用,使用的是多线程的技术。

2.2 多进程为啥要使用队列

多进程中,使用队列时,不能使用其他包的中的队列,必需使用 多进程包中的队列

from multiprocessing import Process,Queue

多进程,会独享资源,2个进程不能共享变量(例如:不能共享list),所以实现共享资源的方式,就要使用其他手段。

进程1,会占用一块单独的内存,存放 变量(list),进程2,也会占用一块单独的内存,存放 变量(list), 每个进程,都有一份自己的变量,这样执行时,list就会被执行两次。

队列可以被进程1,与进程2 共享,队列只会被遍历一次。

举个小例子:

使用list作为变量,存储数据。

from multiprocessing import Processdef worker1(data:list):print("worker1 开始工作")while data:print(f"worker1 取到列表中元素{data.pop()}")def worker2(data:list):print("worker2 开始工作")while data:print(f"worker2 取到列表中元素{data.pop()}")if __name__ == '__main__':list = [x for x in range(10)]p1 = Process(target=worker1,args=(list,))p2 = Process(target=worker2, args=(list,))p1.start()p2.start()print("主程序运行完毕")

打印结果:

worker1 开始工作
worker1 取到列表中元素9
worker1 取到列表中元素8
worker1 取到列表中元素7
worker1 取到列表中元素6
worker1 取到列表中元素5
worker1 取到列表中元素4
worker1 取到列表中元素3
worker1 取到列表中元素2
worker1 取到列表中元素1
worker1 取到列表中元素0
主程序运行完毕
worker2 开始工作
worker2 取到列表中元素9
worker2 取到列表中元素8
worker2 取到列表中元素7
worker2 取到列表中元素6
worker2 取到列表中元素5
worker2 取到列表中元素4
worker2 取到列表中元素3
worker2 取到列表中元素2
worker2 取到列表中元素1
worker2 取到列表中元素0

使用队列Queue作为变量,存储数据。

import time
from multiprocessing import Process,Queuedef worker1(data:Queue):print("worker1 开始工作")while not data.empty():print(f"worker1 取到列表中元素{data.get()}")time.sleep(1)def worker2(data:Queue):print("worker2 开始工作")while not data.empty():print(f"worker2 取到列表中元素{data.get()}")time.sleep(1)if __name__ == '__main__':q = Queue()for x in range(10):q.put(x)p1 = Process(target=worker1,args=(q,))p2 = Process(target=worker2, args=(q,))p1.start()p2.start()print("主程序运行完毕")

打印结果:

worker1 开始工作
worker1 取到列表中元素0
主程序运行完毕
worker2 开始工作
worker2 取到列表中元素1
worker1 取到列表中元素2
worker2 取到列表中元素3
worker1 取到列表中元素4
worker2 取到列表中元素5
worker1 取到列表中元素6
worker2 取到列表中元素7
worker1 取到列表中元素8
worker2 取到列表中元素9

2.3 控制进程运行顺序

2.3.1  join ,

join 以后的代码,要等当前进程运行完才开始执行

import time
from multiprocessing import Process,Queuedef worker1(data:Queue):print("worker1 开始工作")while not data.empty():print(f"worker1 取到列表中元素{data.get()}")time.sleep(1)def worker2(data:Queue):print("worker2 开始工作")while not data.empty():print(f"worker2 取到列表中元素{data.get()}")time.sleep(1)if __name__ == '__main__':q = Queue()for x in range(10):q.put(x)p1 = Process(target=worker1,args=(q,))p2 = Process(target=worker2, args=(q,))p1.start()p2.start()print("主程序运行完毕")

 打印结果:

worker1 开始工作
worker1 取到列表中元素0
主程序运行完毕
worker2 开始工作
worker2 取到列表中元素1
worker1 取到列表中元素2
worker2 取到列表中元素3
worker1 取到列表中元素4
worker2 取到列表中元素5
worker1 取到列表中元素6
worker2 取到列表中元素7
worker1 取到列表中元素8
worker2 取到列表中元素9

我们一共运行了三个进程,一个主进程,一个worker1 进程,一个 worker2 进程。

三个进程运行,属于并发运行。我们想要控制进程的运行顺序,可以使用join() 函数。

 运行p1 进程后,调用join()方法。

则 p1.join()后面的代码 ,只能等到p1进程运行完成后,才开始执行。

===

子进程运行完成后,再运行主进程。

p1.join()

p2.join()

2.3.1 daemon 守护进程 

在主进程,运行完成后,守护进程会被强制关闭。

# -*- coding:utf-8 -*-
# @Author: 喵酱
# @time: 2023 - 02 -25
# @File: list1.py
import os
import time
from multiprocessing import Process, Queuedef worker1(data: Queue):print(f"worker1 开始工作,进程id为:{os.getpid()}")while not data.empty():print(f"worker1 取到列表中元素{data.get()}")time.sleep(1)def worker2(data: Queue):print(f"worker2 开始工作,进程id为:{os.getpid()}")while not data.empty():print(f"worker2 取到列表中元素{data.get()}")time.sleep(1)if __name__ == '__main__':q = Queue()for x in range(10):q.put(x)p1 = Process(target=worker1, args=(q,))p2 = Process(target=worker2, args=(q,))p1.daemon = Truep2.daemon = Trueprint(f"主进程的id: {os.getpid()}")p2.start()p1.start()print("主程序运行完毕")
主进程的id: 36116
worker2 开始工作,进程id为:36117
主程序运行完毕
worker2 取到列表中元素0

注意:

1、设置守护进程

 p1.daemon = True

默认为False, 为True时,将这个进程设置为守护进程

2、只有未开始执行的进程,才能被设置成守护进程。已经开始执行的进程(已经调用start方法的进程,正在执行的进程)是不可以被设置成守护进程。

先设置 

p1.daemon = True

再执行

p1.start()

应用场景:

主进程结束后,需要同时结束其他的子进程。

2.4 进程id

我们通过os模块,来获取进程id

import os
import time
from multiprocessing import Process,Queuedef worker1(data:Queue):print(f"worker1 开始工作,进程id为:{os.getpid()}")while not data.empty():print(f"worker1 取到列表中元素{data.get()}")time.sleep(1)def worker2(data:Queue):print(f"worker2 开始工作,进程id为:{os.getpid()}")while not data.empty():print(f"worker2 取到列表中元素{data.get()}")time.sleep(1)if __name__ == '__main__':q = Queue()for x in range(10):q.put(x)p1 = Process(target=worker1,args=(q,))p2 = Process(target=worker2, args=(q,))p1.start()p2.start()print(f"主进程的id: {os.getpid()}")print("主程序运行完毕")

worker1 开始工作,进程id为:25249
主进程的id: 25248
主程序运行完毕
worker1 取到列表中元素0
worker2 开始工作,进程id为:25250
worker2 取到列表中元素1
worker1 取到列表中元素2
worker2 取到列表中元素3
worker1 取到列表中元素4
worker2 取到列表中元素5
worker1 取到列表中元素6
worker2 取到列表中元素7
worker1 取到列表中元素8
worker2 取到列表中元素9

2.5 进程 存活状态is_alive()

p1.is_alive() 为True p1进程当前为存活状态。

 

2.5 实现自定义多进程类

实现自定义多进程类的模版

from multiprocessing import Processclass MyProcess(Process):def __init__(self):super().__init__()def run(self) -> None:print("运行")if __name__ == '__main__':p1 = MyProcess()p2 = MyProcess()p1.start() # start()  会调用MyProcess 中的run方法p2.start()

1、继承Process

2、重写run方法。start 调用的run方法

三、多线程 threading

java 程序,是多线程。jmeter 与 tomcat 是java编写的,是多线程。

nginx 是C语言编写的。nginx的工作模式,是多进程的,而不是多线程的。

什么场景适用于多线程?

--------间歇性占用CPU的场景适合多线程(IO密集型的)

比如网络io、磁盘读写的时候,是不需要消耗cpu的,此时就可以把cpu让出来,给其他线程,来支持多线程。

举个小例子:

在日常生活中,一个人可以同时熬3锅粥。每锅粥只需要小部分时间的搅拌,其他时间就等待。

工作人员,可以在第一锅粥的等待时间去给第二锅粥做搅拌,合理利用时间,来支持3个线程。

------CPU密集型的不适合多线程。

某个场景,需要一直消耗cpu,把cpu让出去,再拿回来,反而会影响我们的效率。

就比如一个人 做2道数学题。单线程就是:先做完一道,再做下一道。

多线程就是,第一道数据题,先做一分钟,然后下一分钟再去做另一道。然后再回来做第一道数学题。 这种一直需要使用cpu场景,不适合多线程。

import threading
import timedef music(name: str):print(f"正在播放音乐:{name}")time.sleep(1)def play_game(name: str):print(f"正在{name}游戏")time.sleep(2)if __name__ == '__main__':# 创建线程1t1 = threading.Thread(target=music, args=("无地自容",), name="线程1")# 创建线程2t2 = threading.Thread(target=play_game, args=("英雄联盟",), name="线程2")# 开始线程t1.start()t2.start()# 阻塞主程序t1.join()t2.join()print("所有线程都结束了")

打印结果:

正在播放音乐:无地自容
正在英雄联盟游戏
所有线程都结束了

注意:

1、可以设置每个线程的名字,name=

2、传参,是元组,当只有一个参数时,后面也需要加逗号

3、join() 可以阻塞主程序

3.1 线程锁

多线程时,尽量不要使用全局变量。

操作内存(或者文件)的代码,要上锁。同一时间,只允许一个线程进行访问。

注意:

1、锁住的代码越少越好。

举例子:

多个线程,操作同一个内存


import threading
n = 500000def work():global nfor i in range(100000):n -= 1
if __name__ == '__main__':t1 = threading.Thread(target=work,name = "线程1")t2 = threading.Thread(target=work, name="线程2")t3 = threading.Thread(target=work, name="线程3")t1.start()t2.start()t3.start()t1.join()t2.join()t3.join()print(n)

打印结果:

291376

分析:

n=500000

三个线程,每个线程操作n- 1000000 ,最后 n的值应该为 200000。

但是为啥最后值不对呢?

因为在某一个瞬间,多个线程对n 操作时,造成数据错乱。

比如,当n 为 100 时, 线程1 ,与线程2 在这一瞬间同时读取n, 则读到的n都是 100, 再进行-1,

线程1 与线程2 操作完后,n 的值 为 99。 我们期望的结果是 98。 线程1 与线程2 使n 减少2

解决办法,加锁


import threading
n = 500000
lock = threading.Lock()def work():global nfor i in range(100000):# 在对内存进行操作之前加锁lock.acquire()n -= 1# 在对内存进行操作之后释放锁lock.release()
if __name__ == '__main__':t1 = threading.Thread(target=work,name = "线程1")t2 = threading.Thread(target=work, name="线程2")t3 = threading.Thread(target=work, name="线程3")t1.start()t2.start()t3.start()t1.join()t2.join()t3.join()print(n)

打印结果:

200000

        # 在对内存进行操作之前加锁
        lock.acquire()
        n -= 1
        # 在对内存进行操作之后释放锁
        lock.release()

也可以用with lock: 这种写法来加锁


import threading
n = 500000
lock = threading.Lock()def work():global nfor i in range(100000):with lock:n -= 1
if __name__ == '__main__':t1 = threading.Thread(target=work,name = "线程1")t2 = threading.Thread(target=work, name="线程2")t3 = threading.Thread(target=work, name="线程3")t1.start()t2.start()t3.start()t1.join()t2.join()t3.join()print(n)

        

贴个链接:

python 多线程就这么简单 - 虫师 - 博客园

虫师写的很通俗易懂且经典。

值得注意的是

threads = []
t1 = threading.Thread(target=music,args=(u'爱情买卖',))
threads.append(t1)
t2 = threading.Thread(target=move,args=(u'阿凡达',))
threads.append(t2)

这里添加线程的时候,args内,即使传一个参数,后面也需要跟一个逗号

args=(u'爱情买卖',)

不然会报错。args里面传的是一个元组。

四、线程池、进程池

4.1 线程池


from multiprocessing.pool import ThreadPool
import queuedef download(q: queue.Queue):while not q.empty():print(f"从队列中,取出了{q.get()}元素")# 在队列中,本次的任务执行完成q.task_done()if __name__ == '__main__':# 创建队列q = queue.Queue()for i in range(10):q.put(i)# 创建线程池# 线程池中,有2个线程pool = ThreadPool(2)# 异步的调用指定函数pool.apply_async(download, (q,))# 等待所有的任务做完,再做下一步q.join()print("finished")

1、线程池引入& 队列引入

from multiprocessing.pool import ThreadPool
import queue

2、多个线程异步执行(效率高)

    # 异步的调用指定函数pool.apply_async(download, (q,))

3、队列执行完毕的通知

q.task_done()

队列q,每执行完一次任务。就-1

q.join(),

当q中所有的任务都被执行完成时,才会执行下一行代码。

4.2 进程池

导包

from multiprocessing import Pool

4.2.1 pool.map( func, iterable) 


import time
from multiprocessing import Pooldef square(x):print(f"x 的平方是 {x * x}")time.sleep(1)return x * xif __name__ == '__main__':# 开始运行时间start_time = time.time()# 设置进程池中,有2个进程pool = Pool(2)result = pool.map(square, [1, 2, 3, 4, 5, 6, 7])print(f"result is {result}")# 结束进程池pool.close()end_time = time.time()print(f"总共用了{(end_time - start_time):.2f}")

打印结果:

x 的平方是 1
x 的平方是 4
x 的平方是 9
x 的平方是 16
x 的平方是 25
x 的平方是 36
x 的平方是 49
result is [1, 4, 9, 16, 25, 36, 49]
总共用了4.05

注意:

1、pool.map(func, iterable)

func ,函数名称

iterable,一个可迭代对象

可迭代对象[1,2,3,4,5,6,7] 里的每一个元素,分别执行square 函数。(本次启动了2个进程来完成这些)

pool.map(square, [1, 2, 3, 4, 5, 6, 7])

这里我们没有调用join 函数,因为map函数可以阻塞主程序。当执行map时,可迭代对象中没有执行完所有的任务时,不会执行下一步主程序代码,所以不需要我们再加join方法。

2、时间保留了小数点后两位

end_time - start_time):.2f

3、 查看map源码

4.2.2  pool.map_async( func, iterable) 

# -*- coding:utf-8 -*-
# @Author: 喵酱
# @time: 2023 - 02 -26
# @File: jinchengchi1.pyimport time
from multiprocessing import Pooldef square(x):print(f"x 的平方是 {x * x}")time.sleep(1)return x * xif __name__ == '__main__':# 设置进程池中,有2个进程pool = Pool(2)result = pool.map_async(square, [1, 2, 3, 4, 5, 6, 7]).get() # <=> 等价于 pool.mapprint(result)# 结束进程池pool.close()

执行结果 

x 的平方是 1
x 的平方是 4
x 的平方是 9
x 的平方是 16
x 的平方是 25
x 的平方是 36
x 的平方是 49
[1, 4, 9, 16, 25, 36, 49]

pool.map 与 pool.async 有啥区别?

查看map源码。

 pool.map 比  pool.async 多调用了一个get

感觉好像,多了一个get 函数(取执行结果)之外,没啥区别。。

4.2.3   pool.apply(self, func, args=(), kwds={})

源码:

注意,传参,第一个为函数,第二个是 参数,不是可迭代对象。

举例:


import time
from multiprocessing import Pooldef num_add(x,y):print(f"{x} + {y} = {x+y}")time.sleep(1)return x + yif __name__ == '__main__':# 设置进程池中,有2个进程pool = Pool(2)result = pool.apply(num_add,(2,3),)print(result)

 打印结果:

2 + 3 = 5
5

apply 与 map 的区别:

apply : 调用函数,传递任意参数

map: 把一个可迭代对象,映射到函数。(每个元素都会分别执行一次函数)

传参:

当函数里有关键参数时,传参需要加一个字典。

举例:

from multiprocessing import Pooldef num_add(x,y,z = 0):return x + y + zif __name__ == '__main__':# 设置进程池中,有2个进程pool = Pool(2)result = pool.apply(num_add,(2,3),{"z":4})print(result)

给函数中的z赋值时,可以加一个字典{"z":4}

4.2.4   pool.apply_async(self, func, args=(), kwds={})

apply_async 与 apply 使用方法是一致的

表现形式上:apply_async 比 apply 多了一个get()

但是本质上, apply 会阻塞主程序,apply_async 不会阻塞主程序。

举例:


import time
from multiprocessing import Pooldef num_add(x,y):print(f"{x} + {y} = {x+y}")time.sleep(1)return x + yif __name__ == '__main__':# 设置进程池中,有2个进程pool = Pool(2)result = pool.apply_async(num_add,(2,3),)print(result)print("运行结束")

打印结果:

<multiprocessing.pool.ApplyResult object at 0x7feb20127550>
运行结束
2 + 3 = 5

分析:

由于 子进程比较消耗时间,所以主程序先执行完,子进程后执行完。

子进程没有阻塞主程序的进行。

    result = pool.apply_async(num_add,(2,3),)print(result)

打印结果:

<multiprocessing.pool.ApplyResult object at 0x7fe018181790>

想要获取 result的值,需要加get()

    result = pool.apply_async(num_add,(2,3),).get()print(result)

打印结果:

5

当 apply_async 加了get() 之后,就等价于 apply 了。

决定 子进程是否会阻塞主程序的因素是get()

有get()就会阻塞主程序。apply 里,有get函数。

五、协程

六、进程的相关知识

6.1 进程的各种状态

就绪状态(Running):

进程已经准备好,已分配到所需资源,只要分配到CPU就能够立即运行。

运行态和就绪态之间的转换是由进程调度程序引起的,进程调度程序是操作系统的一部分。

就绪状态不消耗cpu

运行状态(Running):

进程处于就绪状态被调度后,进程进入执行状态

可中断睡眠状态:

正在运行的进程由于某些事件而暂时无法运行,进程受到阻塞。在条件满足就会被唤醒(也可以提前被信号打断唤醒),进入就绪状态等待系统调用

一般都是等待事务,这个过程很长,不知道啥时候返回结果。比如python中的input

不可中断睡眠状态(磁盘休眠状态):

除了不会因为接收到信号而被唤醒运行之外,他与可中断状态相同。

等待资源,过程很快会返回结果,毫秒级别,不用打断。在满足请求时进入就绪状态等待系统调用。

在这个状态的进程通常会等待IO的结束。

比如:

cpu是在内存里运行的,数据缺失,会去磁盘里取,读取磁盘,等待数据磁盘从数据返回,这个过程是就是不可中断。

这个过程很快。

终止状态/僵尸状态(ZOMBIE):

该进程已经结束了,但是父进程还没有使用wait()系统调用。因为父进程不能读取到子进程退出的返回代码,所以就会产生僵死进程。为了父进程能够获知它的消息,子进程的进程描述符仍然被保留,一但父进程调用wait(),进程描述符就会被释放。该进程无法再被执行

停止状态:

进程停止执行,进程不能投入运行。通常这种状态发生在接受到SIGSTOP、SIGTSTP、SIGTTIN、SIGOUT等信号(停止信号)的时候,正常停止。此外,在调试期间接受到的任何信号,都会使进程进入这种状态。

在linux中,可以使用top命令,查看s列,为每个进程的状态。

线程的就绪状态与运行状态,都是R(RUNNING)状态。我们无法从R上区分当前进程到底是就绪还是正在运行。

进程与线程:

进程之间相互独立,但同一进程下的各个线程之间共享程序的内存空间(包括代码段、数据集、堆等)及一些进程级的资源(如打开文件和信号),某进程内的线程在其它进程不可见;

6.2 上下文切换

在每个任务运行前,CPU 都需要知道任务从哪里加载、又从哪里开始运行,也就是说,需要系统事先帮它设置好 CPU 寄存器和程序计数器

CPU 寄存器,是 CPU 内置的容量小、但速度极快的内存。而程序计数器,则是用来存储CPU 正在执行的指令位置、或者即将执行的下一条指令位置。它们都是 CPU 在运行任何任务前,必须的依赖环境,因此也被叫做 CPU 上下文

CPU 上下文切换,就是先把前一个任务的 CPU 上下文(也就是 CPU 寄存器和程序计数器)保存起来,然后加载新任务的上下文到这些寄存器和程序计数器,最后再跳转到程序计数器所指的新位置,运行新任务。

3种上下文切换情况:

根据任务的不同,CPU 的上下文切换就可以分为几个不同的场景,也就是进程上下文切换、线程上下文切换以及中断上下文切换。

进程内核空间/用户空间切换导致CPU上下文切换

Linux 按照特权等级,把进程的运行空间分为内核空间和用户空间,CPU 特权等级的 Ring 0 和 Ring 3。进程既可以在用户空间运行,又可以在内核空间中运行。

进程在用户空间运行时,被称为进程的用户态,而陷入内核空间的时候,被称为进程的内核态。

从用户态到内核态的转变,需要通过系统调用来完成。

比如,当我们查看文件内容时,就需要多次系统调用来完成:首先调用 open() 打开文件,然后调用 read() 读取文件内容,并调用 write() 将内容写到标准输出,最后再调用 close() 关闭文件。

内核空间(Ring 0)具有最高权限,可以直接访问所有资源;

用户空间(Ring 3)只能访问受限资源,不能直接访问内存等硬件设备,必须通过系统调用陷入到内核中,才能访问这些特权资源。

系统调用(进程内核空间/用户空间切换)的过程发生 CPU 上下文切换

CPU 寄存器里原来用户态的指令位置,需要先保存起来。

接着,为了执行内核态代码,CPU 寄存器需要更新为内核态指令的新位置。

最后才是跳转到内核态运行内核任务 。

而系统调用结束后,CPU 寄存器需要恢复原来保存的用户态,然后再切换到用户空间,继续运行进程。

所以,一次系统调用的过程,其实是发生了两次 CPU 上下文切换。

系统调用过程中,并不会涉及到虚拟内存等进程用户态的资源,也不会切换进程。这跟我们通常所说的进程上下文切换是不一样的:

进程上下文切换,是指从一个进程切换到另一个进程运行。

而系统调用过程中一直是同一个进程在运行。

进程上下文切换

进程是由内核来管理和调度的,进程的切换只能发生在内核态。

所以,进程的上下文不仅包括了虚拟内存、栈、全局变量等用户空间的资源,还包括了内核堆栈、寄存器等内核空间的状态。

因此,进程的上下文切换就比系统调用时多了一步:

在保存当前进程的内核状态和 CPU 寄存器之前,需要先把该进程的虚拟内存、栈等保存下来;

而加载了下一进程的内核态后,还需要刷新进程的虚拟内存和用户栈。

如下图所示,保存上下文和恢复上下文的过程并不是“免费”的,需要内核在 CPU 上运行才能完成。

每次上下文切换都需要几十纳秒到数微秒的 CPU 时间。

这个时间还是相当可观的,特别是在进程上下文切换次数较多的情况下,很容易导致 CPU 将大量时间耗费在寄存器、内核栈以及虚拟内存等资源的保存和恢复上,进而大大缩短了真正运行进程的时间。

大量的上下文切换会消耗我们的cpu,导致平均负载升高。

进程切换时才需要切换上下文,换句话说,只有在进程调度的时候,才需要切换上下文。

Linux 为每个 CPU 都维护了一个就绪队列,将活跃进程(即正在运行和正在等待CPU 的进程)按照优先级和等待 CPU 的时间排序,然后选择最需要 CPU 的进程,也就是优先级最高和等待 CPU 时间最长的进程来运行。

进程在什么时候才会被调度到cpu上运行:

场景一:

就是一个进程执行完终止了,它之前使用的 CPU 会释放出来,这个时候再从就绪队列里,拿一个新的进程过来运行。

场景二:

为了保证所有进程可以得到公平调度,CPU 时间被划分为一段段的时间片,这些时间片再被轮流分配给各个进程。

这样,当某个进程的时间片耗尽了,就会被系统挂起,切换到其它正在等待 CPU 的进程运行。

场景三:

进程在系统资源不足(比如内存不足)时,要等到资源满足后才可以运行,这个时候进程也会被挂起,并由系统调度其他进程运行。

场景四:

当进程通过睡眠函数 sleep 这样的方法将自己主动挂起时,自然也会重新调度。

场景五:

当有优先级更高的进程运行时,为了保证高优先级进程的运行,当前进程会被挂起,由高优先级进程来运行。

场景六:

发生硬件中断时,CPU 上的进程会被中断挂起,转而执行内核中的中断服务程序。

线程上下文切换

线程与进程最大的区别在于,线程是调度的基本单位,而进程则是资源拥有的基本单位。

所谓内核中的任务调度,实际上的调度对象是线程;而进程只是给线程提供了虚拟内存、全局变量等资源。

可以这么理解线程和进程:

当进程只有一个线程时,可以认为进程就等于线程。

当进程拥有多个线程时,这些线程会共享相同的虚拟内存和全局变量等资源。这些资源在上下文切换时是不需要修改的。

另外,线程也有自己的私有数据,比如栈和寄存器等,这些在上下文切换时也是需要保存的。

线程的上下文切换其实就可以分为两种情况:

第一种,前后两个线程属于不同进程。此时,因为资源不共享,所以切换过程就跟进程上下文切换是一样。

第二种,前后两个线程属于同一个进程。此时,因为虚拟内存是共享的,所以在切换时,虚拟内存这些资源就保持不动,只需要切换线程的私有数据、寄存器等不共享的数据

同进程内的线程切换,要比多进程间的切换消耗更少的资源,而这,也正是多线程代替多进程的一个优势

中断上下文切换

为了快速响应硬件的事件,中断处理会打断进程的正常调度和执行,转而调用中断处理程序,响应设备事件。而在打断其他进程时,就需要将进程当前的状态保存下来,这样在中断结束后,进程仍然可以从原来的状态恢复运行。

跟进程上下文不同,中断上下文切换并不涉及到进程的用户态。所以,即便中断过程打断了一个正处在用户态的进程,也不需要保存和恢复这个进程的虚拟内存、全局变量等用户态资源。

中断上下文,其实只包括内核态中断服务程序执行所必需的状态,包括 CPU 寄存器、内核堆栈、硬件中断参数等。对同一个 CPU 来说,中断处理比进程拥有更高的优先级,所以中断上下文切换并不会与进程上下文切换同时发生。同样道理,由于中断会打断正常进程的调度和执行,所以大部分中断处理程序都短小精悍,以便尽可能快的执行结束。另外,跟进程上下文切换一样,中断上下文切换也需要消耗 CPU,切换次数过多也会耗费大量的 CPU,甚至严重降低系统的整体性能。所以,当你发现中断次数过多时,就需要注意去排查它是否会给你的系统带来严重的性能问题

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_74287.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

计算机图形学:liang算法和Cyrus-Beck算法

其中Cyrus-Beck算法呢&#xff0c;是计算一根直线一个多边形的交线段&#xff1b;liang算法是Cyrus的一个特例&#xff0c;即多边形刚好是矩形&#xff1b;先看看Cyrus算法的思路【从别的博客找的图片】&#xff1a;这很容易理解&#xff0c;点积>0时就可能中内部嘛&#xf…

Pyinstaller 打包EXE(七) 百篇文章学PyQT

本文章是百篇文章学PyQT6的第七篇&#xff0c;本文讲述如何使用Pyinstaller打包UI界面和代码&#xff0c;将程序打包成EXE来更为方便的进行部署&#xff0c;在写博客和学习的过程中会遇到很多问题&#xff0c;例如&#xff1a;PyQT6在网上很多博客都是PyQT5、或者PyQT4大部分都…

Amazon S3 服务15岁生日快乐!

2021年3月14日&#xff0c;作为第一个发布的服务&#xff0c;Amazon S3 服务15周岁啦&#xff01;在中国文化里&#xff0c;15岁是个临界点&#xff0c;是从“舞勺之年”到“舞象之年”的过渡。相信对于 Amazon S3 和其他的云服务15周岁也将是其迎接更加美好未来的全新起点。亚…

java面试题-JVM内存结构

整体结构&#xff1a;1.说说JVM内存整体的结构&#xff1f;线程私有还是共享的&#xff1f;JVM&#xff08;Java Virtual Machine&#xff09;内存可以分为以下几个部分&#xff1a;程序计数器&#xff08;Program Counter Register&#xff09;&#xff1a;是线程私有的&#…

深入浅出解析ChatGPT引领的科技浪潮【AI行研商业价值分析】

Rocky Ding写在前面 【AI行研&商业价值分析】栏目专注于分享AI行业中最新热点/风口的思考与判断。也欢迎大家提出宝贵的意见或优化ideas&#xff0c;一起交流学习&#x1f4aa; 大家好&#xff0c;我是Rocky。 2022年底&#xff0c;ChatGPT横空出世&#xff0c;火爆全网&a…

Linux学习(8.6)文件与目录的默认权限与隐藏权限

目录 文件与目录的默认权限与隐藏权限 文件的默认权限&#xff1a;umask chattr (配置文件隐藏属性) lsattr (显示文件隐藏属性) 文件特殊权限&#xff1a; SUID, SGID, SBIT 观察文件类型&#xff1a;file 以下内容转载自鸟哥的Linux私房菜 文件与目录的默认权限与隐藏权…

【架构师】零基础到精通——架构发展

博客昵称&#xff1a;架构师Cool 最喜欢的座右铭&#xff1a;一以贯之的努力&#xff0c;不得懈怠的人生。 作者简介&#xff1a;一名Coder&#xff0c;软件设计师/鸿蒙高级工程师认证&#xff0c;在备战高级架构师/系统分析师&#xff0c;欢迎关注小弟&#xff01; 博主小留言…

【20230225】【剑指1】分治算法(中等)

1.重建二叉树class Solution { public:TreeNode* traversal(vector<int>& preorder,vector<int>& inorder){if(preorder.size()0) return NULL;int rootValuepreorder.front();TreeNode* rootnew TreeNode(rootValue);//int rootValuepreorder[0];if(preo…

redis秒杀

redis优惠券秒杀 为什么订单表订单ID不采用自增长&#xff1f; id规律性太明显&#xff0c;容易被用户猜测到&#xff08;比如第一天下订单id10&#xff0c;第二天下订单id100&#xff0c;在昨天的1天内只卖出90商品&#xff09;受单表数据量限制&#xff08;订单数据量大&am…

从零开始学习iftop流量监控(找出服务器耗费流量最多的ip和端口)

一、iftop是什么iftop是类似于top的实时流量监控工具。作用&#xff1a;监控网卡的实时流量&#xff08;可以指定网段&#xff09;、反向解析IP、显示端口信息等官网&#xff1a;http://www.ex-parrot.com/~pdw/iftop/二、界面说明>代表发送数据&#xff0c;< 代表接收数…

chatGPT模型原理

文章目录简介BertGPT 初代GPT-2GPT-3chatGPT开源ChatGPT简介 openai 的 GPT 大模型的发展历程。 Bert 2018年&#xff0c;自然语言处理 NLP 领域也步入了 LLM 时代&#xff0c;谷歌出品的 Bert 模型横空出世&#xff0c;碾压了以往的所有模型&#xff0c;直接在各种NLP的建模…

EasyRecovery16MAC苹果版本Photo最新版数据恢复软件

无论是在工作学习中&#xff0c;还是在生活中&#xff0c;Word、Excle等办公软件都是大家很常用的。我们在使用电脑的过程中&#xff0c;有时会因自己的误删或电脑故障&#xff0c;从而导致我们所写的文档丢失了。出现这样的大家不要着急&#xff0c;今天小编就给大家推荐一款可…

FreeRTOS优先级翻转

优先级翻转优先级翻转&#xff1a;高优先级的任务反而慢执行&#xff0c;低优先级的任务反而优先执行优先级翻转在抢占式内核中是非常常见的&#xff0c;但是在实时操作系统中是不允许出现优先级翻转的&#xff0c;因为优先级翻转会破坏任务的预期顺序&#xff0c;可能会导致未…

YOLOv5模型学习记录

新年伊始&#xff0c;YOLOv8横空出世&#xff0c;这个还未开源时便引发界内广泛热议的目标检测算法&#xff0c;一经问世便再次引发热潮&#xff0c;而作为与其师出同源的YOLOv5&#xff0c;自然要拿来与其比较一番。接下来我们便来学习一下吧。 模型结构 首先便是模型结构了…

Rasa 3.x 学习系列-摆脱意图:一种新的对话模式

Rasa 3.x 学习系列-摆脱意图:一种新的对话模式 在2019年的一篇文章中,Alan Nichol写道 :是时候摆脱意图了。一年后,Rasa发布了Rasa中的第一个无意图(或“端到端”)对话模型。现在,我们宣布迈出了一个重要的步伐,将LLM的强大功能带入Rasa的对话管理中。 首先,意图非常…

ACSC 2023 比赛复现

Admin Dashboard 在 index.php 中可以看到需要访问者是 admin 权限&#xff0c;才可以看到 flag。 report.php 中可以让 admin bot 访问我们输入的 url&#xff0c;那么也就是说可以访问 addadmin.php 添加用户。 在 addadmin.php 中可以添加 admin 用户&#xff0c;但是需…

李宏毅2023春季机器学习课程

目录2021&2022课程重磅须知我维护的其他项目更新日志课程地址课程资料直链课程作业直链其他优质课程2021&2022课程 CSDN Github 重磅须知 为方便所有网课资料与优质电子书籍的实时更新维护&#xff0c;创建一个在线实时网盘文件夹&#xff1b;   网盘获取方式&#…

mindspore的MLP模型(多层感知机)

导入模块 import hashlib import os import tarfile import zipfile import requests import numpy as np import pandas as pd import mindspore import mindspore.dataset as ds from mindspore import nn import mindspore.ops as ops import mindspore.numpy as mnp from …

Springdoc Swagger UI集成OAuth2认证

目录引言方式1&#xff1a;Bearer Token方式2&#xff1a;标准OAuth2授权码流程方式3&#xff1a;集成OIDC发现端点扩展&#xff1a;同时支持多种认证方式引言 之前的文章讲过OAuth2体系&#xff0c;以授权码流程为例&#xff08;参见下图&#xff09;&#xff0c; 其中资源服…

[SSD综述 1.3] SSD及固态存储技术半个世纪发展史

在我们今天看来&#xff0c;SSD已不再是个新鲜事物。这多亏了存储行业的前辈们却摸爬滚打了将近半个世纪&#xff0c;才有了SSD的繁荣&#xff0c; 可惜很多前辈都没有机会看到。所有重大的技术革新都是这样&#xff0c;需要长期的技术积累&#xff0c;一代一代的工程师们默默的…