如何解决为什么神经网络中数据集的总大小会影响内存使用率
最初,我尝试使用268张测试图像+ 65张256x256尺寸的验证图像在图像分类模型中进行转移学习。
(我使用的代码来自https://github.com/conan7882/GoogLeNet-Inception)
但是即使使用Tesla K80(16 GB内存),我仍然不能训练超过5个批处理大小的东西。
现在,我将数据集的大小增加到480个测试图像+ 120个验证图像,然后再次弹出内存不足错误。我必须将批次大小减小为2才能继续训练。
为什么数据集大小对内存使用量有影响?不仅批处理大小可以决定GPU正在处理多少数据?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。