Python垃圾回收及Linux Fork
目录
- 1.Linux fork简介
- 1.Copy-On-Write策略增加Python多进程内存占用的原因
- 3.解决办法
前言:
在口袋助理看到了其他部门的同事针对Python2
内存占用做的一点优化工作,自己比较感兴趣,遂记录下。
1.Linux fork简介
fork是Linux提供的创建子进程的系统调用。为了优化创建进程速度,Linux内核使用了Copy-on-Write
的方式去创建进程,所谓Copy-on-Write
是指执行fork之后,
内核并不立即给子进程分配物理内存空间,而是让子进程的虚内存映射到父进程的物理内存。仅仅当子进程向地址空间中执行写入操作时,才给它分配一段物理内存。
通过这种方式既优化了进程创建的时间,又减少了子进程的内存占用。
1.Copy-On-Write策略增加Python多进程内存占用的原因
Python GC采用引用技术的方式去管理对每个对象的引用,每一个被GC跟踪的对象会由一个PyGC_Head的结构体去表示。如下所示,其中gc_refs
就是每个对象的引用计数值,
当我们在子进程中读取父进程创建的对象的时候,就会导致子进程的虚地址空间中的gc_refs
加1,从而触发了内核的缺页中断,这是内核就会给子进程创建新的物理内存。
仅仅是简单的读取操作就会导致新的内存空间产生。
/* GC information is stored BEFORE the object structure. */ typedef union _gc_head { struct { union _gc_head *gc_next; union _gc_head *gc_prev; Py_ssize_t gc_refs; } gc; long double dummy; /* force worst-case alignment */ } PyGC_Head;
3.解决办法
python3的解决方法:
针对这个问题,Python3.7增加了三组API(有instagram团体提交的)[1]。
freeze
用于将GC追踪的所有对象都移动到永生代(permanent generation)
,之后垃圾回收会忽略这些被设置为永生代的对象。
实际使用中,我们可以在父进程中执行freeze
函数,然后子进程中使用和父进程共享的对象,这样对象的引用技术就不会增加,从而避免了COW的发生。
python2的解决方法:
- (1) 针对Python2,我们可以简单的把Python3的相关函数移植过来
- (2) 使用multiprocessing.Array去共享数据。Array会从共享内存中取一段取存储数据,并不会增加引用技术值,从而触发COW。
实现方面,Array使用Posix共享内存 + mmap去实现。[3]
#!/usr/bin/env python # coding=utf-8 from multiprocessing import Array import os import sys def foo(): shared_cache = Array('i', range(0, 100), lock=False) pid = os.fork() if pid > 0: print("parent:", sys.getrefcount(shared_cache)) elif pid == 0: print("child:", sys.getrefcount(shared_cache)) foo()
到此这篇关于Python垃圾回收及Linux Fork的文章就介绍到这了,更多相关Python垃圾回收及Linux Fork内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!
参考:
1.https://instagram-engineering.com/copy-on-write-friendly-python-garbage-collection-ad6ed5233ddf
2.https://llvllatrix.wordpress.com/2016/02/19/python-vs-copy-on-write/
3.https://github.com/python/cpython/blob/main/Lib/multiprocessing/shared_memory.py