如何解决在进程之间共享GPU张量
我最近阅读了一篇论文,其目的是通过在执行反向传播(从而更新模型权重)的进程与使用最新版本的进程的进程之间共享GPU内存来加速强化学习自玩模型。模拟步骤中进行推理的模型。他们使用了PyTorch,虽然我没有阅读他们的代码,但我相信他们能够通过地址或其他标识符在GPU上引用张量,以便可以从多个进程中访问张量,而无需将其复制到主内存中。 。我想知道是否也可以使用Tensorflow。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。