如何解决释放Windows上C ++“新”保留的虚拟内存
| 我正在编写一个具有两个阶段输入过程的32位.NET程序: 它通过C ++ / CLI使用本机C ++将不确定数量的文件解析为相应的SQLite数据库(所有文件都具有相同的架构)。通过C ++'new \'进行的分配通常会占用多达1GB的虚拟地址空间(在2GB可用空间中;我知道3GB的扩展名,但这只会延迟问题)。 它使用复杂的SQL查询(从C#运行)将数据库合并到单个数据库中。我将合并数据库的cache_size设置为1GB,以便合并部分的页面错误最少。 我的问题是,第2阶段的缓存不会重复使用\'new \'分配的1GB内存,并在第1阶段由\'delete \'正确释放了内存。我知道没有泄漏,因为离开后立即阶段1,“专用字节”下降到了我期望的低水平。但是,“虚拟大小”仍处于C ++使用的最高水平。 C ++和SQLite缓存之间的这种不共享使我耗尽了虚拟地址空间。我该如何解决这一问题,最好以一种相当符合标准的方式解决?我真的很想将C ++分配的内存释放回OS。解决方法
这不是您可以从C ++抽象级别有效控制的东西(换句话说,您无法确定是否将程序释放到C ++运行时的内存释放到OS)。无论如何,使用特殊的分配策略和非标准扩展来尝试解决该问题可能无法正常工作,因为您无法控制所使用的外部库如何处理内存(例如,是否已缓存数据)。
一种可能的解决方案是将C ++部分移至一个外部进程,该进程在创建SQLite数据库后终止。拥有外部进程会带来一些麻烦(例如,很难对发生的事情进行“实时”控制),而且即使库不支持多线程或使用多台机器,也可能带来更多的可能性,例如并行处理通过网络。
,由于您正在与C ++ / CLI进行互操作,因此大概是在使用Microsoft的编译器。
如果真是这样,那么您可能想查询
_heapmin
。从“阶段1”退出后,对其进行调用,如果从OS分配的完整块现在可用,则它将把C ++堆管理器所拥有的内存块释放回OS。
,在Linux上,我们使用了google malloc(http://code.google.com/p/google-perftools/)。它具有将可用内存释放到OS的功能:“ 1”。
从理论上讲,gcmalloc可在Windows上运行,但我从来没有亲自使用过。
,您可以从C#中将其分配给GC,固定它,使用它,然后让它返回,从而释放它并使GC压缩它并重新使用内存。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。