python多进程中的内存复制(实例讲解)

 更新时间:2018年01月05日 14:40:50   作者:pushiqiang  
下面小编就为大家分享一篇python多进程中的内存复制(实例讲解),具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

比较好奇python对于多进程中copy on write机制的实际使用情况。目前从实验结果来看,python 使用multiprocessing来创建多进程时,无论数据是否不会被更改,子进程都会复制父进程的状态(内存空间数据等)。所以如果主进程耗的资源较多时,不小心就会造成不必要的大量的内存复制,从而可能导致内存爆满的情况。

示例

举个例子,假设主进程读取了一个大文件对象的所有行,然后通过multiprocessing创建工作进程,并循环地将每一行数据交给工作进程来处理:

def parse_lines(args):
 #working
 ...
def main_logic():
 f = open(filename , 'r')
 lines = f.readlines()
 f.close()
 pool = multiprocessing.Pool(processes==4)
 rel = pool.map(parse_lines , itertools.izip(lines , itertools.repeat(second_args)) , int(len(lines)/4))
 pool.close()
 pool.join()

以下是top及ps结果:

(四个子进程)

(父进程及四个子进程)

由上两张图可以看出父进程及子进程都各自占用了1.4G左右的内存空间。而大部分内存空间存储的是读数据lines,所以这样的内存开销太浪费。

优化计划

1: 在主进程初期未导入大量的py库之前创建进程,或者动态加载py库。

2:通过内存共享来减少内存的开销。

3: 主进程不再读取文件对象,交给每个工作进程去读取文件中的相应部分。

改进代码:

def line_count(file_name):
 count = -1 #让空文件的行号显示0
 for count,line in enumerate(open(file_name)): pass
 #enumerate格式化成了元组,count就是行号,因为从0开始要+1
 return count+1
def parse_lines(args):
 f = open(args[0] , 'r')
 lines = f.readlines()[args[1]:args[2]] #read some lines
 f.close() 
 #working
def main_logic(filename,process_num):
 line_count = line_count(filename)
 avg_len = int(line_count/process_num)
 left_cnt = line_count%process_num;
 pool = multiprocessing.Pool(processes=process_num)
 for i in xrange(0,process_num):
  ext_cnt = (i>=process_num-1 and [left_cnt] or [0])[0]
  st_line = i*avg_len
  pool.apply_async(parse_lines, ((filename, st_line, st_line+avg_len+ext_cnt),)) #指定进程读某几行数据
 pool.close()
 pool.join()

再次用top或者ps来查看进程的内存使用情况:

(四个子进程)

(父进程及四个子进程)

小结

对比两次的内存使用情况,改进代码后父进程及子进程所占用的内存明显减少;所有内存占用相当于原来的一半,这就是减少内存复制的效果。

关于内存使用这方面还有不少优化方法和空间,稍后继续研究。

以上这篇python多进程中的内存复制(实例讲解)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • python beautiful soup库入门安装教程

    python beautiful soup库入门安装教程

    Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据。今天通过本文给大家分享python beautiful soup库入门教程,需要的朋友参考下吧
    2021-08-08
  • python实现将文件夹内的每张图片批量分割成多张

    python实现将文件夹内的每张图片批量分割成多张

    这篇文章主要为大家详细介绍了python实现将文件夹内的每张图片批量分割成多张,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2019-07-07
  • 使用python实现省市三级菜单效果

    使用python实现省市三级菜单效果

    本文给大家分享的是使用使用python实现省市三级菜单效果的代码,非常的实用,有需要的小伙伴可以参考下。
    2016-01-01
  • Python从入门到精通之多线程使用详解

    Python从入门到精通之多线程使用详解

    这篇文章主要介绍了Python中的多线程使用,包括创建线程、线程同步、线程间通信以及线程池等基本概念和技巧,文中的示例代码讲解详细,需要的可以参考一下
    2023-07-07
  • 14 个Python小游戏 源码分享

    14 个Python小游戏 源码分享

    今天给大家带来14个py小游戏如:吃金币、打乒乓、滑雪、并夕夕版飞机大战、打地鼠、小恐龙、消消乐、俄罗斯方块、贪吃蛇、24点小游戏、平衡木、外星人入侵、贪心鸟、井字棋888‘’,文章都带了源码,感兴趣的小伙伴感快收藏起来吧
    2021-09-09
  • Python牛刀小试密码爆破

    Python牛刀小试密码爆破

    用Python与vbs分别实现的爆破bbs论坛账号的代码,学习python或vbs的朋友可以参考下。
    2011-02-02
  • 详解python中__name__的意义以及作用

    详解python中__name__的意义以及作用

    这篇文章主要介绍了详解python中__name__的意义以及作用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-08-08
  • 如何在scrapy中集成selenium爬取网页的方法

    如何在scrapy中集成selenium爬取网页的方法

    这篇文章主要介绍了如何在scrapy中集成selenium爬取网页的方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-11-11
  • 零基础写python爬虫之抓取百度贴吧代码分享

    零基础写python爬虫之抓取百度贴吧代码分享

    前面几篇都是以介绍基础知识为主,各位童鞋估计都在犯嘀咕了,你到底写不写爬虫啊??额,好吧,本文就给大家写一个简单的百度贴吧的python爬虫代码。
    2014-11-11
  • Python进行数据可视化Plotly与Dash的应用小结

    Python进行数据可视化Plotly与Dash的应用小结

    数据可视化是数据分析中至关重要的一环,它能够帮助我们更直观地理解数据并发现隐藏的模式和趋势,本文主要介绍了Python进行数据可视化Plotly与Dash的应用小结,具有一定的参考价值,感兴趣的可以了解一下
    2024-04-04

最新评论