我必须在资源受限的环境中运行python,只有几GB的虚拟内存.更糟糕的是,作为应用程序设计的一部分,我必须从我的主进程中派出子进程,所有这些都在fork上接收相同数量的虚拟内存的写时复制分配.结果是,在仅分配了1-2个孩子之后,过程组击中了天花板并关闭了所有东西.最后,我无法删除numpy作为依赖;这是一个严格的要求.
关于如何降低初始内存分配的任何建议?
例如
>更改导入时分配给numpy的默认金额?
>禁用该功能并强制python / numpy动态分配?
细节:
红帽企业Linux服务器版本6.9(圣地亚哥)
Python 3.6.2
numpy的> = 1.13.3
裸露的翻译:
import os
os.system('cat "/proc/{}/status"'.format(os.getpid()))
# ... VmRSS: 7300 kB
# ... VmData: 4348 kB
# ... VmSize: 129160 kB
import numpy
os.system('cat "/proc/{}/status"'.format(os.getpid()))
# ... VmRSS: 21020 kB
# ... VmData: 1003220 kB
# ... VmSize: 1247088 kB
最佳答案
谢谢你,skullgoblet1089,提出关于SO和https://github.com/numpy/numpy/issues/10455的问题,以及回答.
引用你的2018-01-24帖子:
引用你的2018-01-24帖子:
通过导出OMP_NUM_THREADS = 4减少线程将降低VM分配.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。