如何解决共享内存在退出时被删除
我有两个脚本,一个用于创建和写入共享内存块,另一个用于读取该共享内存。 问题是,当第一个脚本结束时,即使我不取消链接,共享内存也会被删除。 这是我的第一个脚本:
import argparse
import csv
import os
import subprocess
import sys
import time
from classes.rtData import RtData
from multiprocessing import shared_memory
if '__main__' == __name__:
sys.stdout.write('starting server ... \n')
service = RtData()
shm_a = shared_memory.SharedMemory(name='rtdata',create=True,size=len(msg))
data = shm_a.buf
data[0] = 42
shm_a.close
添加断点时,我可以看到已创建共享内存:
$ ls -l / dev / shm /
总计0 -rw ------- 1 facundo facundo 9 Sep 28 09:41 rtdata
但是当脚本退出时,共享内存将被删除(因此我无法在第二个脚本中读取它)
解决方法
似乎您缺少经理程序
例如(https://www.geeksforgeeks.org/multiprocessing-python-set-2/): 导入多处理
def print_records(records):
"""
function to print record(tuples) in records(list)
"""
for record in records:
print("Name: {0}\nScore: {1}\n".format(record[0],record[1]))
def insert_record(record,records):
"""
function to add a new record to records(list)
"""
records.append(record)
print("New record added!\n")
if __name__ == '__main__':
with multiprocessing.Manager() as manager:
# creating a list in server process memory
records = manager.list([('Sam',10),('Adam',9),('Kevin',9)])
# new record to be inserted in records
new_record = ('Jeff',8)
# creating new processes
p1 = multiprocessing.Process(target=insert_record,args=(new_record,records))
p2 = multiprocessing.Process(target=print_records,args=(records,))
# running process p1 to insert new record
p1.start()
p1.join()
# running process p2 to print records
p2.start()
p2.join()
,
我找到了原因。 The documentation states that
当一个进程不再需要访问其他进程可能仍需要的共享内存块时,应调用
close()
方法
我已找到与此问题https://bugs.python.org/issue39959#msg368770相关的错误报告
我已经在使用过程中添加了unregister( shared_memory_name,'shared_memory')
,在我的过程中进行了测试,效果很好。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。